Mặc dù cuộc họp này không được công bố rộng rãi, nhưng thông tin được tiết lộ cho thấy nhóm các chuyên gia đã tập trung vào việc xác định các "ranh giới đỏ" cần thiết để kiểm soát sự phát triển của AI và ngăn chặn những hậu quả tiêu cực.
Theo như tuyên bố được công bố sau cuộc họp, các chuyên gia đã nhấn mạnh tầm quan trọng của việc thiết lập các quy định và nguyên tắc để giới hạn việc sử dụng AI trong những lĩnh vực nhạy cảm như quân sự, an ninh và y tế.
Nhóm cũng đề xuất một cách tiếp cận chung về an toàn AI, nhấn mạnh rằng cần phải ngăn chặn những hậu quả thảm khốc có thể xảy ra nếu sự phát triển của AI không được kiểm soát.
Các chuyên gia cũng lưu ý rằng cần phải hợp tác quốc tế để đối phó với những thách thức từ sự phát triển nhanh chóng của công nghệ AI. Họ so sánh tầm quan trọng của việc kiểm soát AI với nỗ lực của cộng đồng quốc tế trong việc ngăn chặn thảm họa hạt nhân thời kỳ Chiến tranh Lạnh.
Nhóm các chuyên gia, gồm các tên tuổi hàng đầu như giáo sư Geoffrey Hinton, Yoshua Bengio và Stuart Russell, đã kêu gọi chính phủ và cộng đồng khoa học quốc tế cùng nhau làm việc để xây dựng các nguyên tắc và quy định cần thiết để kiểm soát sự phát triển của AI.
Họ tin rằng việc thiết lập các "ranh giới đỏ" sẽ giúp đảm bảo rằng công nghệ AI được sử dụng một cách an toàn và có ích cho con người.
Trong bối cảnh đó, cảnh báo về nguy cơ từ công nghệ AI đã trở thành một đề tài nổi bật trong cộng đồng khoa học và công nghệ, và những nỗ lực để tạo ra một hệ thống kiểm soát chung đang được đặt ra.
Big Tech (Nguồn: TH&PL)