Nghiên cứu mới của các nhà khoa học máy tính tại Đức và Anh chỉ ra rằng AI tuy thông minh nhưng không có khả năng tiếp thu các kỹ năng mới nếu không được hướng dẫn.
Nhiều người lo ngại AI sẽ thông minh đến mức nguy hiểm - Ảnh minh họa: cresinsurance.com
Với sự phát triển ngày càng tinh vi của các mô hình ngôn ngữ lớn (LLM), chẳng hạn như ChatGPT, câu hỏi về những mối nguy hiểm mà trí tuệ nhân tạo (AI) có thể gây ra cho con người đang trở nên cấp thiết hơn bao giờ hết.
May mắn là nghiên cứu mới do các nhà khoa học máy tính Iryna Gurevych từ ĐH Công nghệ Darmstadt (Đức) và Harish Tayyar Madabushi từ ĐH Bath (Anh) dẫn đầu cho thấy các mô hình AI này không có khả năng trở nên "gian xảo".
Theo nhóm nghiên cứu, nhiều người lo ngại rằng khi các mô hình ngày càng lớn hơn, chúng sẽ có khả năng giải quyết những vấn đề mới mà hiện tại chúng ta không thể dự đoán được. Họ lo chúng sẽ có được những khả năng nguy hiểm như lập luận hay lập kế hoạch.
"Nghiên cứu của chúng tôi cho thấy nỗi sợ về việc mô hình sẽ làm gì đó bất ngờ, đột phá và có khả năng nguy hiểm là không có cơ sở", ông Tayyar Madabushi nhấn mạnh.
Các quan sát cho thấy khi LLM mở rộng quy mô, chúng trở nên mạnh hơn và có thể thực hiện nhiều nhiệm vụ hơn. Không rõ liệu việc mở rộng quy mô này có liên quan đến rủi ro về hành vi của LLM mà con người chưa chuẩn bị để giải quyết hay không.
Do đó, nhóm nghiên cứu tiến hành một cuộc điều tra để xem liệu các mô hình có những hành vi vượt ngoài mong đợi hay chỉ đơn giản là chúng đang hoạt động theo những cách phức tạp trong ranh giới mã (code) của chúng.
Các mô hình ngôn ngữ lớn (LLM) có thể thực hiện nhiều nhiệm vụ - Ảnh: OCTACOMM
Nhóm đã thử nghiệm với 4 mô hình LLM khác nhau và không tìm thấy bằng chứng nào cho thấy sự phát triển của tư duy khác biệt hay khả năng chạy ngoài chương trình của chúng. Do đó, nhóm kết luận AI không phải là mối đe dọa, song con người thì lại ít đáng tin cậy hơn.
Thực tế các mô hình này bị giới hạn khá nhiều bởi các chương trình lập trình nên chúng, không có khả năng tiếp thu các kỹ năng mới nếu không được hướng dẫn, và do đó vẫn nằm trong tầm kiểm soát của con người.
Điều này có nghĩa là con người vẫn có khả năng dùng chúng cho các mục đích xấu, song bản thân LLM vẫn an toàn để phát triển mà không cần lo lắng, theo trang ScienceAlert ngày 21-8.
Theo nhóm, nghiên cứu trong tương lai nên tập trung vào những rủi ro khác từ LLM, chẳng hạn như khả năng chúng được dùng để tạo ra tin tức giả.
Nghiên cứu được công bố trong báo cáo của Hội nghị thường niên lần thứ 62 của Hiệp hội Ngôn ngữ học máy tính.
Theo Anh Thư/ Tuổi trẻ
https://tuoitre.vn/nghien-cuu-moi-ai-thong-minh-nhung-khong-den-muc-de-doa-con-nguoi-2024082208515636.htm