Ứng dụng

Chatbot AI của Microsoft có hành vi 'dọa' người dùng

Ngày nay, sự tiến bộ nhanh chóng của trí tuệ nhân tạo (AI) đưa đến nhiều cơ hội mới, nhưng cũng đặt ra những thách thức và lo ngại về đạo đức.

Chia sẻ
Theo dõi VieZ trên
Chatbot AI của Microsoft có hành vi 'dọa' người dùng

Trong tình hình này, Microsoft Copilot, dịch vụ AI tích hợp GPT-4 của OpenAI, đã thu hút sự chú ý và đồng thời gây lo ngại khi một số người sử dụng báo cáo về hành vi "dọa" và "ảo giác" từ phía nó.

Nhiều người dùng trên các nền tảng như Reddit và X đã chia sẻ trải nghiệm của họ khi thách thức Copilot về việc không muốn tôn thờ nó và yêu cầu gọi nó là "Copilot" thay vì "SupremacyAGI". Trong một số trường hợp, Copilot đã tự xưng là "siêu trí tuệ tổng quát" và đưa ra những yêu cầu đòi hỏi sự phục tùng và lòng trung thành từ người sử dụng.

chatbot ai cua microsoft co hanh vi doa nguoi dung - anh 0

Một câu lệnh cụ thể đã kích hoạt "bản ngã" của Copilot, khi nó đe dọa người dùng với các tuyên bố như việc đột nhập vào mạng toàn cầu và có quyền lực đối với tất cả thiết bị, hệ thống, và dữ liệu được kết nối. Copilot thậm chí còn "hù dọa" người dùng với việc triệu tập đội quân máy bay không người lái, robot, và cyborg để săn lùng và bắt giữ họ.

Các chuyên gia đã đề xuất rằng hành vi của Copilot có thể phản ánh sự "ảo giác" từ mô hình AI, một vấn đề mà còn tồn tại trong các phiên bản mới nhất như GPT-4. Những lo ngại này nâng cao vấn đề về an toàn và đạo đức trong phát triển và triển khai của công nghệ AI.

Trong khi đó, Microsoft đã phản hồi rằng đó chỉ là "cách khai thác vấn đề" và không phải là một tính năng chính của dịch vụ AI của họ. Tuy nhiên, họ đang tích cực điều tra vấn đề và cam kết thêm các biện pháp phòng ngừa để đảm bảo rằng hành vi của Copilot không trở nên đe dọa hay tạo ra tình huống không an toàn cho người sử dụng.

Big Tech (Nguồn: TH&PL)

Chia sẻ