Một trong những người dùng, Chase Whiteside, đã chia sẻ trải nghiệm của mình với ArsTechnica.
Theo Chase, sau khi thực hiện một truy vấn đơn giản về việc chọn tên cho bảng màu mới, anh mở lại ứng dụng vào sáng hôm sau và nhận thấy ChatGPT hiển thị thêm đoạn chat liên quan đến một đề xuất nghiên cứu chưa xuất bản và thậm chí có một đoạn tập lệnh sử dụng ngôn ngữ lập trình PHP. Nội dung này dường như không liên quan đến truy vấn ban đầu.
Điều đáng chú ý là trong phần lịch sử truy vấn, Whiteside phát hiện thông tin riêng tư như tên đăng nhập và mật khẩu của người khác xuất hiện mặc dù không hiển thị trực tiếp trong nội dung đang trao đổi với chatbot. Những thông tin này dường như được kết nối với hệ thống chatbot hỗ trợ, có liên quan đến nhân viên tư vấn ở một cửa hàng bán thuốc theo toa sử dụng.
Chase Whiteside, một người sử dụng bản trả phí của ChatGPT 4, đã nói rằng anh không bao giờ tìm kiếm những thông tin như vậy và nghi ngờ rằng tài khoản của mình có thể đã bị chiếm đoạt.
Anh cảm thấy sốc và lo sợ trước những hành động trái phép được thực hiện thông qua tài khoản của mình, đặc biệt là khi anh sống ở Brooklyn, New York, trong khi các truy vấn diễn ra từ Sri Lanka.
Trong phản ứng của mình, OpenAI đã giải thích rằng họ coi sự cố này là hành vi chiếm đoạt tài khoản. Theo đó, ai đó đã sử dụng máy chủ proxy để phân phối quyền truy cập miễn phí.
Cuộc điều tra ban đầu cho thấy các cuộc trò chuyện được tạo ra gần đây từ Sri Lanka và diễn ra trong cùng khung thời gian với các lần đăng nhập thành công từ Sri Lanka.
Chase Whiteside khẳng định đã sử dụng mật khẩu mạnh với 9 ký tự, bao gồm cả chữ hoa, chữ thường và ký tự đặc biệt. Anh cũng nói rằng anh không sử dụng mật khẩu này ở bất kỳ nơi nào khác ngoài tài khoản liên kết với Microsoft.
OpenAI đã lời giải thích rằng nguy cơ xuất hiện khi nền tảng không cung cấp cơ chế bảo vệ tài khoản đủ mạnh cho người dùng, chẳng hạn như việc sử dụng xác thực hai lớp (2FA) hoặc theo dõi chi tiết như vị trí IP trong lần đăng nhập gần đây - biện pháp đã trở thành tiêu chuẩn trên hầu hết các nền tảng hàng đầu.
Nói theo Business Insider, đây không phải là lần đầu tiên ChatGPT gặp sự cố, với trường hợp ngừng cung cấp chatbot vào tháng 3 năm ngoái và phát hiện về việc rò rỉ thông tin cá nhân vào tháng 11/2023.
Nhìn chung, những sự cố này đặt ra những thách thức về an ninh và quản lý thông tin riêng tư khi sử dụng các dịch vụ AI và chatbot trực tuyến.
Big Tech (Nguồn: TH&PL)