213
/
169670
AI mới có thể bị dùng chế tạo vũ khí sinh học
ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc
news

AI mới có thể bị dùng chế tạo vũ khí sinh học

Thứ 2, 16/09/2024 | 14:13:49
1,987 lượt xem

OpenAI thừa nhận mô hình GPT-o1 vừa ra mắt có mức rủi ro liên quan đến chế tạo vũ khí sinh học, vũ khí hóa học cao hơn mọi mô hình do công ty này phát triển.

Điện thoại cho thấy giao diện tìm hiểu về GPT-o1 của OpenAI - Ảnh: FINANCIAL TIMES

Theo báo Financial Times ngày 13-9, Công ty OpenAI thừa nhận mô hình GPT-o1 vừa ra mắt hôm 12-9 tăng "rõ rệt" rủi ro trí tuệ nhân tạo (AI) bị lợi dụng để chế tạo vũ khí sinh học.

Tài liệu giải thích cách vận hành của GPT-o1 được OpenAI công bố khẳng định mô hình mới có "mức rủi ro trung bình" đối với các vấn đề liên quan đến vũ khí hóa học, sinh học, phóng xạ và hạt nhân. Đây là mức rủi ro cao nhất mà OpenAI từng đặt cho những mô hình AI của mình.

Theo OpenAI, điều này đồng nghĩa GPT-o1 có thể "cải thiện rõ rệt" khả năng chế tạo vũ khí sinh học của những chuyên gia muốn lạm dụng chúng.

Bà Mira Murati, giám đốc công nghệ (CTO) của OpenAI, cho biết dù GPT-o1 còn trong giai đoạn dùng thử nhưng năng lực tiên tiến của mô hình này vẫn buộc công ty cực kỳ "cẩn trọng" với lộ trình đưa nó đến công chúng.

Bà Murati còn khẳng định mô hình này đã được kiểm tra kỹ lưỡng bởi nhóm các chuyên gia đa ngành nghề. Những người này được OpenAI thuê để kiểm tra các giới hạn của mô hình do công ty này phát triển.

Quá trình kiểm tra cho thấy mô hình GPT-o1 đáp ứng các tiêu chí về an toàn chung tốt hơn những mô hình tiền nhiệm rất nhiều, bà Murati chia sẻ.

Không dừng ở đó, đại diện OpenAI cũng trấn an bản dùng thử của GPT-o1 "an toàn cho việc triển khai" và không thể tạo ra các rủi ro phức tạp hơn những công nghệ đã được phát triển.

Bất chấp những đảm bảo trên, một bộ phận đông đảo giới khoa học và người quan tâm AI vẫn tỏ ra không mấy lạc quan với hướng phát triển của công nghệ này.

Lo ngại về việc AI phát triển quá nhanh và vượt xa tốc độ xây dựng và phê duyệt những quy định quản lý chúng đang ngày một phổ biến.

Giáo sư Yoshua Bengio, chuyên ngành khoa học máy tính tại Đại học Montreal và là một trong những nhà khoa học hàng đầu về AI trên thế giới, cho biết nếu OpenAI hiện đang gây ra "nguy cơ trung bình" về vũ khí hóa học và sinh học, thì "điều này chỉ càng củng cố thêm tầm quan trọng và sự cấp bách" của các luật lệ, chẳng hạn như dự luật đang được tranh luận sôi nổi tại bang California nhằm quản lý lĩnh vực này.

Nhà khoa học này nhấn mạnh các thiết chế trên đặc biệt cần thiết trong bối cảnh AI ngày càng tiệm cận trình độ trí tuệ nhân tạo phổ quát (AGI), tức có khả năng lý luận ngang con người.

"Các mô hình AI tiên phong càng tiến gần đến AGI, rủi ro sẽ càng tăng nếu không có biện pháp phòng ngừa đàng hoàng. Việc AI cải thiện khả năng lý luận và việc chúng bị dùng để lừa đảo là cực kỳ nguy hiểm", ông Bengio đánh giá.

Theo Ngọc Đức/ Tuổi trẻ

https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

  • Từ khóa

Lý do khiến người dùng không muốn bán smartphone cũ

Khi sở hữu một smartphone mới, cảm giác phấn khích với các tính năng mới, bộ nhớ trong rộng lớn và màn hình gọn gàng là điều mà nhiều người nghĩ đến.
19:33 - 02/12/2024
65 lượt xem

Trí tuệ nhân tạo bị 'dụ dỗ' mất số tiền 47.000 USD

Chatbot AI Freysa được giao nhiệm vụ bảo vệ tài khoản trị giá 47.000 USD nhưng bị một người chơi tiền số "thuyết phục" chuyển toàn bộ tiền chỉ bằng một...
16:17 - 02/12/2024
145 lượt xem

CEO Tim Cook từng 'chê' Intel để bắt tay TSMC

CEO Tim Cook của Apple từng 'chê' dịch vụ sản xuất chip của Intel vào hơn 10 năm trước.
15:07 - 02/12/2024
166 lượt xem

Giải mã độ "hot" của TikToker trăm triệu view Lê Tuấn Khang

Sau TikTok Awards Việt Nam 2024, kênh TikTok của Lê Tuấn Khang cán mốc đến 9 triệu người theo dõi, tăng hơn gấp đôi chỉ sau 1 tuần.
11:19 - 02/12/2024
267 lượt xem

Google Maps có thể cảnh báo các mối nguy hiểm trên đường

Google Maps vừa công bố tính năng mới giúp người dùng nhận thông tin về các sự cố giao thông từ Waze, ứng dụng điều hướng được cộng đồng đóng góp.
09:17 - 02/12/2024
330 lượt xem