Ứng dụng

TikTok buộc người dùng gắn nhãn nội dung được tạo bởi AI

Trong thời gian sắp tới, trước khi đăng tải video, hình ảnh lên TikTok, người dùng sẽ bị hỏi nội dung này có phải "AI-generated content" (Nội dung tạo bởi AI) hay không.

Chia sẻ
Theo dõi VieZ trên
TikTok buộc người dùng gắn nhãn nội dung được tạo bởi AI
tik tok buoc nguoi dung gan nhan noi dung duoc tao boi ai - anh 0
TikTok cũng đe dọa sẽ gỡ bài đăng nếu nội dung không được dán nhãn đúng.

Sự trỗi dậy của công nghệ AI có thể đem tới rất nhiều giá trị mà nhưng cũng tạo ra không ít các hệ luỵ. Một trong những điều này là nạn tin giả, hình ảnh giả mạo hay cả những hình ảnh mạo danh do AI tạo ra với mục đích xấu.

Theo nguyên tắc cộng đồng của TikTok, nội dung tạo bởi công nghệ AI sẽ không bị cấm trên nền tảng. Tuy nhiên, nền tảng không khuyến khích việc đăng nội dung và video deepfakes, đặc biệt là có liên quan đến các nhân vật trong thế giới thực được tạo ra để đánh lừa công chúng.

Chính vì vậy, TikTok đã thêm tính năng buộc người dùng dán nhãn "tạo bởi AI" trước khi đăng tải nội dung. TikTok cho biết, các nội dung trên nền tảng được tạo ra bởi AI phải được dán nhãn đặc biệt để người xem có thể phân biệt các nội dung giả tưởng và nội dung thật.

Nếu người dùng không bật tính năng, một thông báo sẽ hiện ra nhắc nhở người dùng cân nhắc dán nhãn "tạo bởi AI" cho nội dung. Đồng thời, TikTok cũng đe dọa sẽ gỡ bài đăng nếu nội dung không được dán nhãn đúng.

Vào tháng 3, TikTok đã cập nhật chính sách nội dung của mình để yêu cầu người dùng chú thích nội dung deepfakes, do AI tạo trong phụ đề video hoặc sử dụng nhãn dán nhận dạng. Hiện tại, tính năng này đang trong giai đoạn phát triển và mới chỉ được thử nghiệm trên một số lượng nhỏ người dùng.

Trước đó, mạng xã hội Instagram cũng đang thử nghiệm tính năng mới cho phép người dùng nhận diện những hình ảnh do AI tạo ra hoặc hình ảnh có sự can thiệp của AI. Quyết định gắn cờ những nội dung do AI tạo ra của Meta được đánh giá là bước tích cực hướng tới việc bảo vệ người dùng trên mạng xã hội.

Bảo Trung (Nguồn: TH&PL)

Chia sẻ