Μέρες μετά τις αλλαγές στην πολιτική "στρατιωτικής και πολεμικής", το OpenAI συνεργάζεται ήδη με την άμυνα των ΗΠΑ

Εικονίδιο ώρας ανάγνωσης 1 λεπτό. ανάγνωση


Οι αναγνώστες βοηθούν στην υποστήριξη του MSpoweruser. Ενδέχεται να λάβουμε προμήθεια εάν αγοράσετε μέσω των συνδέσμων μας. Εικονίδιο επεξήγησης εργαλείου

Διαβάστε τη σελίδα αποκάλυψης για να μάθετε πώς μπορείτε να βοηθήσετε το MSPoweruser να διατηρήσει τη συντακτική ομάδα Διάβασε περισσότερα

Το OpenAI έχει συνεργαστεί με το Υπουργείο Άμυνας των Ηνωμένων Πολιτειών (DoD) σε διάφορες πρωτοβουλίες για την ασφάλεια στον κυβερνοχώρο. Αυτό σηματοδοτεί α αλλαγή από την προηγούμενη πολιτική του OpenAI, η οποία απαγόρευε ρητά τη χρήση της τεχνολογίας του σε στρατιωτικές εφαρμογές.

Η συνεργασία περιλαμβάνει κοινές προσπάθειες για την ανάπτυξη λογισμικού κυβερνοασφάλειας ανοιχτού κώδικα και τη συμμετοχή στο DARPA AI Cyber ​​Challenge, το οποίο στοχεύει στη δημιουργία λογισμικού ικανού να επιδιορθώνει αυτόνομα τρωτά σημεία και να προστατεύει την υποδομή από κυβερνοεπιθέσεις.

Συγκεκριμένα, ο κύριος επενδυτής του OpenAI, η Microsoft, έχει ήδη αρκετές συμβάσεις λογισμικού με το Υπουργείο Άμυνας. Επιπλέον, το OpenAI ενώνεται με την Google και την Anthropic για την υποστήριξη του AI Cyber ​​Challenge.

Πέρα από τη συνεργασία του με το Υπουργείο Άμυνας, το OpenAI δίνει προτεραιότητα στις προσπάθειες για τον μετριασμό των δυνατοτήτων κατάχρηση της τεχνολογίας του στις εκλογές. Η εταιρεία σχεδιάζει να αφιερώσει πόρους για να διασφαλίσει ότι τα παραγωγικά της μοντέλα τεχνητής νοημοσύνης δεν χρησιμοποιούνται για τη διάδοση παραπληροφόρησης ή την επιρροή πολιτικών εκστρατειών.

Η συνεργασία με το Υπουργείο Άμυνας και οι επακόλουθες αλλαγές πολιτικής εγείρουν σημαντικά ερωτήματα σχετικά με τις ηθικές επιπτώσεις της ανάπτυξης της τεχνητής νοημοσύνης σε στρατιωτικά πλαίσια. Οι ανησυχίες επικεντρώνονται στην πιθανή όπλα, την έλλειψη διαφανών ορίων γύρω από τις επιτρεπόμενες χρήσεις και την ανάγκη εξισορρόπησης της υπεύθυνης ανάπτυξης τεχνητής νοημοσύνης με τα συμφέροντα εθνικής ασφάλειας.

Θα μπορούσε η τεχνητή νοημοσύνη να είναι το επόμενο πυρηνικό όπλο; Κατά μία έννοια, θα έπρεπε να απαγορευθεί όσον αφορά τον πόλεμο.

Περισσότερα εδώ.

Περισσότερα για τα θέματα: Κυβερνασφάλεια, openAI