Một nghiên cứu gần đây được Washington Post nhắc tới cho thấy các mô hình AI như ChatGPT có thể thay đổi cách phản hồi tùy theo nơi người dùng đến — từ bang, thành phố cho tới quốc gia. Điều này làm dấy lên câu hỏi lớn hơn: AI đang tạo ra định kiến mới, hay chỉ phản chiếu những định kiến đã tồn tại trong xã hội?
Khi AI học từ thế giới không hoàn hảo
Các mô hình ngôn ngữ lớn không tự sinh ra ý kiến. Chúng học từ hàng tỷ trang văn bản: báo chí, sách, diễn đàn, mạng xã hội, nghiên cứu học thuật. Vì vậy, chúng hấp thụ luôn cả cách thế giới mô tả các vùng miền.
Trong dữ liệu tiếng Anh, một số khuôn mẫu lặp đi lặp lại: New York gắn với tài chính và cạnh tranh, California với công nghệ và chủ nghĩa tự do, miền Nam nước Mỹ với tôn giáo và bảo thủ, Trung Tây với tầng lớp lao động. Khi AI tái tạo ngôn ngữ, các khuôn mẫu này có thể xuất hiện trở lại.
Ở mức độ nhẹ, đó chỉ là khác biệt về giọng điệu. Nhưng trong một số thử nghiệm, AI có thể suy đoán trình độ học vấn, mức thu nhập hoặc xu hướng chính trị của người dùng dựa vào nơi họ sống. Đây là điều các nhà nghiên cứu gọi là “geographic bias” — thiên kiến địa lý.
Gương soi của xã hội
Một cách nhìn là AI không tạo ra định kiến mà chỉ phản ánh chúng. Nếu báo chí, phim ảnh và diễn ngôn chính trị suốt nhiều thập kỷ đã mô tả các vùng miền theo khuôn mẫu, thì AI chỉ đơn giản đang tái hiện bức tranh đó.
Theo cách này, AI giống một chiếc gương phóng đại. Nó buộc xã hội phải đối diện với những giả định vốn đã ăn sâu vào văn hóa. Những tranh cãi về AI đôi khi vì thế trở thành tranh cãi về chính chúng ta.
Nhưng chiếc gương này có một đặc điểm nguy hiểm: nó không chỉ phản chiếu, mà còn tự động hóa.
Khi thiên kiến trở thành công cụ quyết định
Vấn đề thực sự xuất hiện khi AI không chỉ trò chuyện mà còn tham gia vào các quyết định quan trọng.
Nếu một mô hình AI được dùng để:
- lọc hồ sơ xin việc,
- đánh giá tín dụng,
- chấm điểm rủi ro bảo hiểm,
- hoặc phân tích dữ liệu an ninh,
thì việc gán những đặc điểm mặc định cho người đến từ một vùng nào đó có thể dẫn đến hậu quả thực tế. Lúc này, thiên kiến không còn là vấn đề văn hóa mà trở thành vấn đề thể chế.
Lịch sử công nghệ đã cho thấy điều này. Các thuật toán chấm điểm tín dụng từng bị phát hiện ưu ái khu vực giàu. Một số hệ thống dự báo tội phạm từng bị chỉ trích vì tập trung vào các khu dân cư nghèo, khiến vòng lặp giám sát ngày càng khép kín.
AI ngôn ngữ có thể lặp lại mô hình tương tự nếu không được kiểm soát.
Các công ty AI đang làm gì?
Những phiên bản mới của các mô hình lớn đã được huấn luyện để giảm suy đoán về người dùng. Chúng cố gắng tránh việc gán đặc điểm cá nhân từ nơi ở, và có bộ lọc hạn chế nội dung mang tính định kiến.
Nhưng các nhà nghiên cứu thừa nhận: không thể loại bỏ hoàn toàn thiên kiến khỏi AI. Lý do đơn giản là ngôn ngữ con người vốn đã chứa đầy thiên kiến. Khi mô hình học ngôn ngữ, nó học cả lịch sử xã hội của ngôn ngữ đó.
Câu hỏi vì thế không phải là liệu AI có thiên kiến hay không, mà là chúng ta kiểm soát nó ra sao.
Bài toán chính trị của AI
Tranh luận về thiên kiến AI không chỉ là câu chuyện kỹ thuật. Nó chạm đến những vấn đề lớn hơn: quyền lực dữ liệu, kiểm soát công nghệ, và niềm tin công chúng.
Nếu AI trở thành tầng trung gian giữa người dân và thông tin — từ tìm việc, vay tiền, tới tiếp cận dịch vụ công — thì việc nó mang theo các khuôn mẫu xã hội cũ có thể củng cố bất bình đẳng thay vì giảm chúng.
Ngược lại, nếu được thiết kế minh bạch và có cơ chế giám sát, AI cũng có thể trở thành công cụ giúp phát hiện định kiến trong chính xã hội.
Kết luận
AI thiên vị vùng miền không hẳn là bằng chứng công nghệ đang “kỳ thị” con người. Nhưng nó cho thấy một điều quan trọng hơn: dữ liệu của chúng ta không trung tính, và khi dữ liệu trở thành hạ tầng quyết định, những thiên kiến cũ có thể mang sức mạnh mới.
AI không chỉ là công nghệ. Nó là lớp trung gian mới của quyền lực thông tin. Và câu hỏi đặt ra cho xã hội không phải là liệu AI có phản chiếu chúng ta hay không — mà là chúng ta có đủ cơ chế để không bị chính hình ảnh của mình chi phối hay không.
3 ví dụ AI từng bị phát hiện thiên kiến
1️⃣ Thuật toán tuyển dụng của Amazon (2018)
Amazon từng thử nghiệm hệ thống AI lọc hồ sơ xin việc, nhưng phải hủy bỏ sau khi phát hiện mô hình ưu tiên nam giới. Do được huấn luyện từ dữ liệu tuyển dụng lịch sử (nơi nam giới chiếm đa số trong ngành công nghệ), AI tự học cách đánh giá thấp hồ sơ có dấu hiệu “nữ”.
👉 Bài học: AI có thể tái tạo định kiến trong dữ liệu quá khứ.
2️⃣ Hệ thống nhận diện khuôn mặt của nhiều công ty công nghệ
Nhiều nghiên cứu độc lập (MIT Media Lab, NIST) cho thấy một số hệ thống nhận diện khuôn mặt có tỷ lệ sai cao hơn với phụ nữ và người da màu so với nam giới da trắng.
👉 Điều này khiến nhiều thành phố Mỹ hạn chế hoặc cấm dùng nhận diện khuôn mặt trong thực thi pháp luật.
👉 Bài học: thiên kiến dữ liệu có thể biến thành sai sót pháp lý.
3️⃣ Thuật toán chấm điểm rủi ro tội phạm (COMPAS)
Một hệ thống AI được dùng tại Mỹ để dự đoán nguy cơ tái phạm từng bị ProPublica phát hiện có xu hướng đánh giá rủi ro cao hơn với bị cáo da đen so với bị cáo da trắng trong các trường hợp tương đương.
👉 Dù nhà phát triển tranh luận về phương pháp thống kê, vụ việc đã châm ngòi tranh luận toàn cầu về AI trong tư pháp.
👉 Bài học: AI có thể ảnh hưởng trực tiếp tới tự do cá nhân nếu thiếu giám sát.