Thứ Sáu, 06/06/2025 05:00

AI kiểm chứng tin tức: Công cụ giải cứu hay con dao hai lưỡi?

04/06/2025 - 08:03 | Khoa học - Công nghệ

Nhiều báo cáo cho thấy, các công cụ tìm kiếm AI thường xuyên đưa ra câu trả lời sai hoặc suy đoán thay vì thừa nhận không có kiến thức để trả lời về vấn đề được hỏi.

Sự bùng nổ, phát triển của khoa học công nghệ, nhất là trí tuệ nhân tạo, đang đem lại nhiều lợi ích của con người, giúp tăng hiệu suất trên rất nhiều lĩnh vực của đời sống xã hội và tiện nghi cuộc sống. Tuy nhiên, đi kèm với cơ hội là không ít các rủi ro, thách thức từ sự phát triển quá nóng của công nghệ.

Trong bối cảnh tin tức đa chiều, đa lĩnh vực lan truyền chóng mặt trên mạng xã hội, nhiều người đã tìm đến các chatbot trí tuệ nhân tạo (AI) như một công cụ để kiểm chứng thông tin. Nhưng một nghịch lý đáng báo động đang diễn ra khi chính những công cụ này, vốn được kỳ vọng là "người gác cổng sự thật", lại đang góp phần phát tán thông tin sai lệch, gây ra những hệ lụy nghiêm trọng.

Trong cuộc xung đột kéo dài 4 ngày vừa qua giữa Ấn Độ và Pakistan, hàng triệu người dùng đã tìm đến các chatbot AI như Grok của công ty xAI (do tỷ phú Elon Musk sở hữu), ChatGPT của OpenAI và Gemini của Google để xác minh tin tức. Đáng lo ngại, những công cụ này thường xuyên đưa ra các thông tin sai sự thật, làm gia tăng thêm tình trạng hỗn loạn thông tin.

Một ví dụ điển hình là việc Grok đã nhầm lẫn một đoạn video cũ tại sân bay Khartoum ở Sudan thành cảnh tên lửa tấn công căn cứ không quân Nur Khan của Pakistan. Thậm chí, một đoạn clip về tòa nhà cháy ở Nepal cũng bị chatbot này khẳng định "nhiều khả năng" là phản ứng quân sự của Pakistan sau các cuộc không kích từ Ấn Độ.

Chuyên gia McKenzie Sadeghi thuộc tổ chức giám sát thông tin sai lệch NewsGuard cảnh báo rằng: "Sự phụ thuộc ngày càng lớn vào Grok như một công cụ kiểm chứng đang diễn ra trong bối cảnh các nền tảng công nghệ lớn giảm đầu tư vào lực lượng kiểm chứng là con người". Bà nhấn mạnh rằng, các nghiên cứu của NewsGuard cho thấy chatbot AI không phải là nguồn đáng tin cậy cho tin tức, đặc biệt là trong các tình huống tin nóng.

Các báo cáo của NewsGuard cũng chỉ ra rằng, 10 chatbot hàng đầu hiện nay có xu hướng lặp lại các luận điệu tuyên truyền sai sự thật. Trong khi đó, một nghiên cứu do Trung tâm Báo chí kỹ thuật số Tow (thuộc Đại học Columbia) thực hiện cho thấy, 8 công cụ tìm kiếm AI thường xuyên đưa ra câu trả lời sai hoặc suy đoán thay vì thừa nhận không có kiến thức để trả lời về vấn đề được hỏi. Đây được coi là một hành vi nguy hiểm đối với công tác kiểm chứng tin tức.

Trong trường hợp thiếu quản trị hiệu quả, các nền tảng trí tuệ nhân tạo có thể làm phức tạp thêm các nguy cơ bị lợi dụng tạo ra các thông tin lừa đảo, tiến hành các cuộc tấn công đánh cắp thông tin hay làm gia tăng chia rẽ, phân biệt dựa trên các phân tích xu hướng truyền thông xã hội.

Bên cạnh đó, giới chuyên gia cũng lo ngại về độ tin cậy của các thông tin phản hồi, mức độ chất lượng dữ liệu đào tạo đầu vào của các nền tảng trí tuệ nhân tạo, thậm chí là các thành kiến hoặc ảnh hưởng thể chế trong việc phát triển mô hình trí tuệ nhân tạo.

Câu chuyện tại Uruguay là một minh chứng rõ ràng về điều này. Khi các kiểm chứng viên của hãng tin AFP yêu cầu Gemini xác minh một hình ảnh do AI tạo ra, chatbot này không chỉ khẳng định đó là ảnh thật mà còn "bịa thêm" chi tiết về danh tính và bối cảnh địa điểm. Thậm chí, Grok gần đây còn tuyên bố một video giả về "rắn khổng lồ bơi trên sông Amazon" là "có thật" và viện dẫn những chuyến thám hiểm khoa học tưởng tượng để củng cố cho nhận định sai lầm của mình. Dù sau đó hãng tin AFP đã xác nhận đây là video do AI tạo ra nhưng nhiều người dùng vẫn tiếp tục chia sẻ dựa trên "kết luận của Grok".

Sự tin tưởng của người dùng vào chatbot AI đang gia tăng rõ rệt. Trong khi đó, nhiều nền tảng công nghệ lớn như Meta lại thông báo chấm dứt chương trình kiểm chứng bởi bên thứ ba tại Mỹ. Thay vào đó, họ chuyển sang mô hình "Community Notes" (Ghi chú cộng đồng) - tương tự như cách mạng xã hội X triển khai - tức là để người dùng tự kiểm chứng lẫn nhau. Mô hình này bị giới chuyên gia nghi ngờ về hiệu quả, đặc biệt trong một thế giới siêu phân cực về chính trị.

Khi các nền tảng công nghệ có xu hướng phó mặc cho người dùng, con người dùng ngày càng tin tưởng vào những cỗ máy biết nói, câu hỏi lớn đặt ra là: Ai sẽ là "người gác cổng sự thật" hiệu quả nhất trong kỷ nguyên số và liệu AI có thực sự hữu ích khi giúp chúng ta tổng hợp thông tin hay đang đẩy chúng ta lạc lối trong mê cung tin giả.

Tin cùng chuyên mục

Xem thêm