Ngày 25 tháng 2 (Reuters) – OpenAI cho biết họ đã cấm các tài khoản liên kết với cơ quan thực thi pháp luật Trung Quốc, những kẻ lừa đảo tình cảm và các hoạt động gây ảnh hưởng, bao gồm cả chiến dịch bôi nhọ nữ thủ tướng đầu tiên của Nhật Bản, trong một báo cáo chi tiết về việc lạm dụng công nghệ ChatGPT của họ.
Công ty cho biết một số tài khoản đã sử dụng chatbot của họ cùng với các công cụ khác, bao gồm cả tài khoản mạng xã hội, để thực hiện các tội phạm mạng trong khi giả mạo là các công ty mai mối, công ty luật và các quan chức Hoa Kỳ, cùng nhiều đối tượng khác.
Dưới đây là một số chi tiết từ OpenAI:
Một nhóm nhỏ các tài khoản, có khả năng xuất phát từ Trung Quốc, đã sử dụng mô hình của OpenAI để yêu cầu thông tin về công dân Hoa Kỳ, các diễn đàn trực tuyến và địa điểm các tòa nhà liên bang, đồng thời tìm kiếm hướng dẫn về phần mềm hoán đổi khuôn mặt.
Các tài khoản này cũng tạo ra các email bằng tiếng Anh gửi đến các quan chức cấp tiểu bang hoặc các nhà phân tích chính sách làm việc trong lĩnh vực kinh doanh và tài chính của Hoa Kỳ, mời các mục tiêu tham gia vào các cuộc tư vấn có trả phí.
OpenAI cho biết họ đã cấm một tài khoản ChatGPT liên kết với một cá nhân có liên quan đến cơ quan thực thi pháp luật Trung Quốc, người này có hoạt động liên quan đến việc dàn dựng một chiến dịch gây ảnh hưởng ngầm nhắm vào Thủ tướng Nhật Bản Sanae Takaichi.
Một nhóm các tài khoản ChatGPT đã sử dụng chatbot để thực hiện một vụ lừa đảo hẹn hò nhắm vào nam giới Indonesia và có khả năng đã lừa đảo hàng trăm nạn nhân mỗi tháng, theo OpenAI.
OpenAI cho biết vụ lừa đảo đã sử dụng ChatGPT để tạo ra văn bản quảng cáo và quảng cáo cho một dịch vụ hẹn hò giả mạo, dụ dỗ người dùng tham gia nền tảng và gây áp lực buộc các mục tiêu hoàn thành một số nhiệm vụ yêu cầu thanh toán lớn.
Một số tài khoản đã sử dụng mô hình của OpenAI để giả mạo các công ty luật và mạo danh các luật sư và cơ quan thực thi pháp luật Hoa Kỳ, nhắm mục tiêu vào các nạn nhân bị lừa đảo, theo OpenAI.
(Bài viết của Deborah Sophia tại Bengaluru; Biên tập bởi Tasim Zahid)
Nguồn : REUTERS