Được biết, Google sẽ đánh dấu các nội dung này ở cửa sổ thông tin về bức ảnh (About this image) trong mục Tìm kiếm (Search), Kính Google (Google Lens) và tính năng Vẽ vòng tìm kiếm (Circle to Search) trên Android.
Google quyết định đánh dấu nội dung do AI tạo ra trên trang kết quả tìm kiếm. Ảnh: DT
Theo đó, Google đang dán nhãn cảnh báo đối với dịch vụ quảng cáo, cũng như xem xét áp dụng đối với các video YouTube. Theo đó, quyết định cuối cùng của công ty sẽ được công bố vào cuối năm nay.
Google cho biết, họ sử dụng công nghệ siêu dữ liệu C2PA để xác định hình ảnh do AI tạo ra. Siêu dữ liệu C2PA là một tiêu chuẩn chung của một nhóm công ty trong ngành, được thành lập vào đầu năm nay. Công nghệ này được sử dụng để theo dõi nguồn gốc hình ảnh, xác định thời điểm và địa điểm tạo ra hình ảnh, cũng như thiết bị và phần mềm sử dụng để tạo ra hình ảnh đó.
Các thành viên của liên minh C2PA gồm: Amazon, Microsoft, OpenAI và Adobe. Tuy nhiên, tiêu chuẩn này không nhận được nhiều sự chú ý từ các nhà sản xuất phần cứng. Hiện tại, chỉ có Sony và Leica áp dụng C2PA. Một số công ty phát triển công cụ tạo AI nổi tiếng đã từ chối áp dụng tiêu chuẩn này, chẳng hạn như Black Forrest Labs.
Google cho biết sẽ sử dụng công nghệ siêu dữ liệu C2PA để xác định hình ảnh do AI tạo ra. Ảnh: AFP
Mặt khác, số lượng các vụ lừa đảo trực tuyến sử dụng deepfake do AI tạo ra đã tăng vọt trong hai năm qua. Vào tháng 2, một nhà đầu tư tại Hồng Kông đã bị lừa chuyển 25 triệu USD cho những kẻ lừa đảo đóng giả làm giám đốc tài chính của công ty trong một cuộc họp video call.
Nhà cung cấp dịch vụ - Samsub đã xác minh và công bố báo cáo cho thấy số vụ lừa đảo deepfake đã tăng 245% trên toàn cầu trong khoảng thời gian từ năm 2023 đến năm 2024, riêng ở Mỹ tăng 303%.
David Fairman - Giám đốc thông tin và Giám đốc an ninh của APAC tại Netskope nói với CNBC vào tháng 5 vừa qua rằng: "Việc các dịch vụ được triển khai công khai đã tạo điều kiện cho tội phạm mạng. Chúng không còn cần phải có bộ kỹ năng công nghệ đặc biệt nữa".