Tháng 6/1956, nhóm các nhà khoa học và toán học tại Đại học Dartmouth đã mở màn cho cuộc hành trình kéo dài hàng thập kỷ về trí tuệ nhân tạo. Họ mơ ước về một "cỗ máy biết nghĩ," nhưng đến nay, sự đồng thuận về định nghĩa và cách thức thực hiện vẫn là một thách thức.
Nếu AI hẹp (Narrow AI) chú trọng vào các nhiệm vụ cụ thể, AGI là mục tiêu tối cao - khả năng tư duy và thực hiện mọi nhiệm vụ tương tự như con người. Đây là sức mạnh lớn, đặt ra những câu hỏi về khả năng vượt lên trí thông minh con người.
Ilya Sutskever, nhà khoa học trưởng của OpenAI, mô tả AGI như một hệ thống có khả năng hiểu và đọc dữ liệu từ nhiều nguồn, với khả năng vượt lên trí thông minh con người khi tích lũy đủ kiến thức. Tuy nhiên, với sức mạnh đó cũng đến những nỗi lo lớn.
Cuộc đua phát triển AGI trở nên hấp dẫn và đầy thách thức, nhất là sau thông tin về dự án Q* của OpenAI. Mô hình này được cho là một dạng AGI sơ khai, có khả năng vượt qua những giới hạn trước đó. Tuy nhiên, điều này cũng gây ra lo ngại và nghi vấn, đặt ra câu hỏi về tương lai mà chúng ta đang hình dung.
Những người như Geoffrey Hinton, giáo sư đoạt giải Turing, và Elon Musk đã cảnh báo về nguy cơ mà AGI có thể mang lại. Sự khả năng tự chủ, sáng tạo, và ý thức về bản thân của AGI đặt ra những thách thức mà chúng ta cần đối mặt một cách tỉ mỉ.
Trong bối cảnh những lo ngại này, việc quản lý và bảo vệ an ninh của phát triển AGI trở thành một vấn đề quan trọng. Những biện pháp quản lý và kiểm soát được xem là chìa khóa để đảm bảo AGI phát triển an toàn và có lợi ích cho con người.
Trước những cảnh báo và triển vọng, chúng ta đặt ra câu hỏi không chỉ về việc AGI sẽ phát triển như thế nào, mà còn là làm thế nào chúng ta có thể đối mặt và hướng dẫn nó. Có lẽ, sự cân nhắc kỹ lưỡng và sự chủ động trong quản lý sẽ quyết định liệu AGI là một đồng minh mạnh mẽ cho con người hay một mối đe dọa đối với sự tồn tại của chúng ta.
Hiệp Nguyễn (Nguồn: TH&PL)