Vài ngày sau những thay đổi trong chính sách "quân sự và chiến tranh", OpenAI đã hợp tác với quốc phòng Hoa Kỳ

Biểu tượng thời gian đọc 1 phút đọc


Bạn đọc giúp đỡ ủng hộ MSpoweruser. Chúng tôi có thể nhận được hoa hồng nếu bạn mua thông qua các liên kết của chúng tôi. Biểu tượng chú giải công cụ

Đọc trang tiết lộ của chúng tôi để tìm hiểu cách bạn có thể giúp MSPoweruser duy trì nhóm biên tập Tìm hiểu thêm

OpenAI đã hợp tác với Bộ Quốc phòng Hoa Kỳ (DoD) về một số sáng kiến ​​an ninh mạng. Điều này đánh dấu một thay đổi so với chính sách trước đây của OpenAI, vốn rõ ràng cấm sử dụng công nghệ của nó trong các ứng dụng quân sự.

Sự hợp tác này bao gồm các nỗ lực chung trong việc phát triển phần mềm an ninh mạng nguồn mở và tham gia Thử thách mạng DARPA AI, nhằm tạo ra phần mềm có khả năng tự động vá các lỗ hổng và bảo vệ cơ sở hạ tầng khỏi các cuộc tấn công mạng.

Đáng chú ý, nhà đầu tư chính của OpenAI, Microsoft, đã nắm giữ một số hợp đồng phần mềm với DoD. Ngoài ra, OpenAI còn có sự tham gia của Google và Anthropic trong việc hỗ trợ Thử thách mạng AI.

Ngoài sự hợp tác DoD, OpenAI cũng đang ưu tiên các nỗ lực giảm thiểu nguy cơ lạm dụng công nghệ của mình trong các cuộc bầu cử. Công ty có kế hoạch dành nguồn lực để đảm bảo các mô hình AI tổng quát của mình không được sử dụng để truyền bá thông tin sai lệch hoặc gây ảnh hưởng đến các chiến dịch chính trị.

Sự hợp tác với DoD và những thay đổi chính sách tiếp theo đặt ra những câu hỏi quan trọng về ý nghĩa đạo đức của việc triển khai AI trong bối cảnh quân sự. Mối quan tâm tập trung vào khả năng vũ khí hóa tiềm năng, thiếu ranh giới minh bạch xung quanh việc sử dụng được phép và nhu cầu cân bằng giữa phát triển AI có trách nhiệm với lợi ích an ninh quốc gia.

AI có thể là vũ khí hạt nhân tiếp theo? Theo một nghĩa nào đó, nó phải bị cấm liên quan đến chiến tranh.

Hơn tại đây.

Thông tin thêm về các chủ đề: An ninh mạng, mởAI