ΟΥΑΣΙΝΓΚΤΟΝ — Η Μονάδα Αμυντικής Καινοτομίας δημοσίευσε νέες οδηγίες για τον τρόπο με τον οποίο σχεδιάζει να χρησιμοποιήσει τις «Κατευθυντήριες οδηγίες για την υπεύθυνη τεχνητή νοημοσύνη» που εγκρίθηκε πρόσφατα από το Πεντάγωνο στις προσπάθειες εμπορικής πρωτοτυποποίησης και απόκτησης.

« Κατευθυντήριες γραμμές RAI ϋΐυ για να παρέχει ένα βήμα-προς-βήμα πλαίσιο AI [τεχνητή νοημοσύνη] εταιρείες, Υπουργείο Άμυνας [Υπουργείο Άμυνας] ενδιαφερόμενους φορείς, και οι διαχειριστές πρόγραμμα που μπορεί να βοηθήσει να διασφαλιστεί ότι τα προγράμματα AI ευθυγράμμιση με τις αρχές δεοντολογίας του Υπουργείου Άμυνας για την AI και ότι η δικαιοσύνη , η λογοδοσία και η διαφάνεια λαμβάνονται υπόψη σε κάθε βήμα στον κύκλο ανάπτυξης ενός συστήματος AI», δήλωσε ο Jared Dunnmon, τεχνικός διευθυντής του χαρτοφυλακίου AI και μηχανικής μάθησης στο DIU.

Ιδρύθηκε το 2015, η αποστολή του DIU είναι να βοηθήσει τους οργανισμούς του Υπουργείου Άμυνας να χρησιμοποιήσουν την εμπορική καινοτομία.

Ως εκ τούτου, η DIU εργάζεται από τον Μάρτιο του 2020 για να ενσωματώσει τις Ηθικές Αρχές του Πενταγώνου για την Τεχνητή Νοημοσύνη στις συνεχιζόμενες προσπάθειές της για τεχνητή νοημοσύνη .

Κατά τη διάρκεια 15 μηνών, η μονάδα συμβουλεύτηκε ειδικούς από τη βιομηχανία, την κυβέρνηση και τον ακαδημαϊκό κόσμο, συμπεριλαμβανομένων ερευνητών στο Ινστιτούτο Μηχανικής Λογισμικού του Πανεπιστημίου Carnegie Mellon.

Οι κατευθυντήριες γραμμές που θα προκύψουν θα βοηθήσουν τη μονάδα να λειτουργήσει τις πέντε αρχές ηθικής χρήσης της τεχνητής νοημοσύνης που προτάθηκαν από το Συμβούλιο Καινοτομίας στην Άμυνα – μια συμβουλευτική ομάδα στο Πεντάγωνο – το 2020.

Σύμφωνα με τη δήλωση της DIU, οι κατευθυντήριες γραμμές είχαν ήδη τα ακόλουθα αποτελέσματα:

  • Επιτάχυνση των προγραμμάτων διευκρινίζοντας τους τελικούς στόχους και τους ρόλους, ευθυγραμμίζοντας τις προσδοκίες και αναγνωρίζοντας τους κινδύνους και τους συμβιβασμούς από την αρχή.

  • Αυξημένη εμπιστοσύνη ότι τα συστήματα AI αναπτύσσονται, δοκιμάζονται και ελέγχονται με γνώμονα τα υψηλότερα πρότυπα δικαιοσύνης, λογοδοσίας και διαφάνειας.

  • Υποστηρίζονται αλλαγές στον τρόπο με τον οποίο οι τεχνολογίες τεχνητής νοημοσύνης αξιολογούνται, επιλέγονται, δημιουργούνται πρωτότυπα και υιοθετούνται και βοήθησαν στην αποφυγή πιθανών κακών αποτελεσμάτων.

  • Προκλήθηκαν και εμφανίστηκαν ερωτήματα που έχουν υποκινήσει συζητήσεις ζωτικής σημασίας για την επιτυχία των έργων τεχνητής νοημοσύνης.

«Οι χρήστες θέλουν να γνωρίζουν ότι μπορούν να εμπιστεύονται και να επαληθεύουν ότι τα εργαλεία τους προστατεύουν τα αμερικανικά συμφέροντα χωρίς να διακυβεύονται οι συλλογικές μας αξίες», δήλωσε ο John Stockton, συνιδρυτής της Quantifind, μιας από τις εταιρείες που παρέχει σχόλια σχετικά με τις κατευθυντήριες γραμμές.

«Αυτές οι κατευθυντήριες γραμμές υπόσχονται ουσιαστικά την επιτάχυνση της υιοθέτησης της τεχνολογίας, καθώς βοηθά στον εντοπισμό και την αντιμετώπιση πιθανών προβλημάτων που θα σταματήσουν την εμφάνιση», είπε σε μια δήλωση.

 «Διαπιστώσαμε ότι η κλίση σε αυτήν την προσπάθεια μας έχει εξυπηρετήσει καλά και εκτός κυβέρνησης, ενισχύοντας τους εσωτερικούς ελέγχους και δημιουργώντας διαφάνεια και πρότυπα εμπιστοσύνης που μπορούν επίσης να αξιοποιηθούν με όλους τους χρήστες, δημόσιους και ιδιωτικούς».

https://www.c4isrnet.com/artificial-intelligence/2021/11/23/defense-innovation-unit-publishes-ethical-ai-guidelines/