Byron Kaye | 1 tháng 4, 2026 | 10:22 tối PDT | Cập nhật 1 giờ trước
SYDNEY, ngày 2 tháng 4 (Reuters) – Những người bộc lộ xu hướng cực đoan bạo lực trên ChatGPT sẽ được chuyển hướng đến các dịch vụ hỗ trợ giải trừ tư tưởng cực đoan – thông qua cả con người lẫn chatbot – nhờ một công cụ mới hiện đang được phát triển tại New Zealand; đây là thông tin được chính những người đứng sau dự án này tiết lộ.
Sáng kiến
OpenAI từng bị chính phủ Canada đe dọa can thiệp vào tháng 2, sau khi tiết lộ rằng một cá nhân đã thực hiện vụ xả súng chết người tại trường học đã bị nền tảng này cấm truy cập mà không hề thông báo cho các cơ quan chức năng.
ThroughLine – một công ty khởi nghiệp được chủ sở hữu ChatGPT là OpenAI, cũng như các đối thủ cạnh tranh như Anthropic và Google (GOOGL.O), thuê trong những năm gần đây để chuyển hướng người dùng đến các dịch vụ hỗ trợ khủng hoảng khi họ bị gắn cờ là có nguy cơ tự làm hại bản thân, bạo lực gia đình hoặc rối loạn ăn uống – hiện cũng đang tìm hiểu các phương thức để mở rộng phạm vi dịch vụ sang lĩnh vực ngăn chặn chủ nghĩa cực đoan bạo lực; thông tin này được Elliot Taylor – người sáng lập kiêm cựu nhân viên công tác thanh niên của công ty – cho biết.
Ông Taylor cũng chia sẻ thêm rằng công ty hiện đang thảo luận với “The Christchurch Call” (Lời kêu gọi Christchurch) – một sáng kiến
“Đây là lĩnh vực mà chúng tôi mong muốn hướng tới, nhằm thực hiện tốt hơn công tác bao quát các vấn đề liên quan, và qua đó có thể hỗ trợ hiệu quả hơn cho các nền tảng công nghệ,” ông Taylor phát biểu trong một cuộc phỏng vấn, đồng thời cho biết thêm rằng hiện vẫn chưa có khung thời gian cụ thể nào được ấn định cho dự án này.
OpenAI đã xác nhận mối quan hệ hợp tác với ThroughLine nhưng từ chối đưa ra thêm bất kỳ bình luận nào khác. Anthropic và Google hiện vẫn chưa phản hồi ngay lập tức trước các yêu cầu bình luận từ phía phóng viên.
Công ty của ông Taylor – vốn được ông điều hành ngay tại tư gia ở vùng nông thôn New Zealand – đã trở thành một đối tác tin cậy của các công ty AI nhờ cung cấp một mạng lưới bao gồm 1.600 đường dây nóng hỗ trợ khẩn cấp tại 180 quốc gia, được kiểm tra và cập nhật liên tục.
Ngay khi AI phát hiện các dấu hiệu của một cuộc khủng hoảng sức khỏe tâm thần tiềm ẩn, hệ thống sẽ chuyển hướng người dùng đến ThroughLine — nền tảng giúp kết nối họ với một dịch vụ hỗ trợ do con người vận hành đang sẵn có tại khu vực lân cận.
Tuy nhiên, người sáng lập cho biết phạm vi hoạt động của ThroughLine hiện vẫn chỉ giới hạn trong một số danh mục cụ thể. Ông nói thêm rằng, cùng với sự phổ biến bùng nổ của các chatbot AI, mức độ đa dạng của những vấn đề sức khỏe tâm thần mà mọi người chia sẻ trực tuyến cũng đã tăng vọt, và giờ đây thậm chí còn bao gồm cả những sự tiếp xúc với tư tưởng cực đoan.
CÀNG NHIỀU CHATBOT, CÀNG NHIỀU VẤN ĐỀ
Ông Taylor cho biết công cụ chống chủ nghĩa cực đoan này có thể sẽ là một mô hình lai, kết hợp giữa một chatbot được huấn luyện để phản hồi những người có dấu hiệu cực đoan và việc giới thiệu họ đến các dịch vụ sức khỏe tâm thần ngoài đời thực.
“Chúng tôi không sử dụng dữ liệu huấn luyện của một mô hình ngôn ngữ lớn (LLM) nền tảng thông thường,” ông nói, khi đề cập đến các bộ dữ liệu chung mà những nền tảng mô hình ngôn ngữ lớn thường dùng để tạo ra văn bản mạch lạc. “Chúng tôi đang làm việc với đúng các chuyên gia trong lĩnh vực này.” Công nghệ này hiện đang trong giai đoạn thử nghiệm, nhưng chưa có ngày phát hành chính thức.
Galen Lamphere-Englund, một cố vấn chống khủng bố đại diện cho sáng kiến
Henry Fraser, một nhà nghiên cứu AI tại Đại học Công nghệ Queensland, nhận định rằng một công cụ chatbot có chức năng chuyển hướng người dùng là “một ý tưởng hay và cần thiết, bởi nó thừa nhận rằng vấn đề không chỉ nằm ở bản thân nội dung, mà còn ở chính những tương tác và mối quan hệ giữa con người.”
Ông cho rằng sự thành công của sản phẩm này có thể phụ thuộc vào việc giải quyết các câu hỏi như: “Các cơ chế theo dõi và hỗ trợ tiếp nối hoạt động hiệu quả đến đâu? Và liệu các cấu trúc, mối quan hệ mà công cụ này hướng người dùng tới có thực sự đủ năng lực để giải quyết tận gốc vấn đề hay không?”
Ông Taylor cho biết các tính năng hỗ trợ tiếp nối—bao gồm cả khả năng gửi cảnh báo tới cơ quan chức năng về những người dùng có hành vi nguy hiểm—vẫn đang trong quá trình cân nhắc và hoàn thiện; tuy nhiên, khi thiết kế các tính năng này, đội ngũ phát triển sẽ luôn tính đến nguy cơ có thể vô tình kích động người dùng thực hiện những hành vi cực đoan hoặc bạo lực hơn.
Ông giải thích rằng những người đang gặp khủng hoảng tâm lý thường có xu hướng chia sẻ trên mạng những điều mà họ cảm thấy quá ngượng ngùng, e ngại để có thể nói trực tiếp với một người khác; do đó, nếu chính phủ gây sức ép buộc các nền tảng trực tuyến phải cắt đứt quyền truy cập của những người đang tham gia vào các cuộc trò chuyện nhạy cảm này, họ có nguy cơ vô tình làm trầm trọng thêm mức độ nguy hiểm của tình hình.
Theo một nghiên cứu công bố năm 2025 của Trung tâm Stern về Kinh doanh và Nhân quyền thuộc Đại học New York, việc các nền tảng trực tuyến tăng cường hoạt động kiểm duyệt đối với những nội dung liên quan đến chủ nghĩa quân sự—dưới áp lực từ các cơ quan thực thi pháp luật—đã khiến những người có tư tưởng ủng hộ các phong trào này chuyển sang sử dụng những nền tảng thay thế ít bị kiểm soát hơn, chẳng hạn như Telegram.
“Nếu bạn tâm sự với một AI và chia sẻ về những khủng hoảng mà mình đang gặp phải, nhưng con AI đó lại đột ngột chấm dứt cuộc trò chuyện, thì sẽ chẳng ai hay biết chuyện gì đã xảy ra, và người đó vẫn sẽ tiếp tục rơi vào tình trạng đơn độc, không nhận được bất kỳ sự hỗ trợ nào,” ông Taylor chia sẻ.
Bài viết bởi Byron Kaye; Biên tập bởi Kate Mayberry