Ένα νέο εργαλείο του Συμβουλίου της Ευρώπης παρέχει καθοδήγηση και μια δομημένη προσέγγιση για τη διενέργεια εκτιμήσεων κινδύνου και επιπτώσεων για τα συστήματα τεχνητής νοημοσύνης (AI) . Η μεθοδολογία HUDERIA είναι ειδικά προσαρμοσμένη για την προστασία και την προώθηση των ανθρωπίνων δικαιωμάτων, της δημοκρατίας και του κράτους δικαίου. Μπορεί να χρησιμοποιηθεί τόσο από δημόσιους όσο και από ιδιωτικούς φορείς για να βοηθήσει στον εντοπισμό και την αντιμετώπιση των κινδύνων και των επιπτώσεων στα ανθρώπινα δικαιώματα, τη δημοκρατία και το κράτος δικαίου καθ’ όλη τη διάρκεια του κύκλου ζωής των συστημάτων ΤΝ.
Η μεθοδολογία προβλέπει τη δημιουργία ενός σχεδίου μετριασμού των κινδύνων για την ελαχιστοποίηση ή την εξάλειψη των εντοπισμένων κινδύνων, προστατεύοντας το κοινό από ενδεχόμενη βλάβη. Εάν, για παράδειγμα, ένα σύστημα ΤΝ που χρησιμοποιείται για την πρόσληψη προσωπικού διαπιστωθεί ότι μεροληπτεί έναντι ορισμένων δημογραφικών ομάδων, το σχέδιο μετριασμού μπορεί να περιλαμβάνει την προσαρμογή του αλγορίθμου ή την εφαρμογή ανθρώπινης εποπτείας.
Η μεθοδολογία απαιτεί τακτικές επανεκτιμήσεις για να διασφαλιστεί ότι το σύστημα ΤΝ συνεχίζει να λειτουργεί με ασφάλεια και ηθική, καθώς το πλαίσιο και η τεχνολογία εξελίσσονται. Η προσέγγιση αυτή διασφαλίζει ότι το κοινό προστατεύεται από τους αναδυόμενους κινδύνους καθ’ όλη τη διάρκεια του κύκλου ζωής του συστήματος ΤΝ.
Η μεθοδολογία HUDERIA εγκρίθηκε από την Επιτροπή Τεχνητής Νοημοσύνης (Committee on Artificial Intelligence – CAI) του Συμβουλίου της Ευρώπης κατά τη 12η συνεδρίαση της ολομέλειάς της, που πραγματοποιήθηκε στο Στρασβούργο στις 26-28 Νοεμβρίου. Θα συμπληρωθεί το 2025 από το μοντέλο HUDERIA, το οποίο θα παρέχει υποστηρικτικό υλικό και πόρους, συμπεριλαμβανομένων ευέλικτων εργαλείων και κλιμακούμενων συστάσεων.