Kể từ khi ra mắt năm 2022, ChatGPT và các công cụ AI sinh sinh đã nhanh chóng len lỏi vào công việc, học tập lẫn đời sống cá nhân, giúp tăng tốc nghiên cứu, sáng tạo nội dung và nhiều thứ khác với tốc độ chưa từng có.
Không ngạc nhiên khi AI tạo sinh được đón nhận mạnh mẽ, thậm chí còn nhanh hơn cả Internet hay PC trước đây. Tuy nhiên, các chuyên gia cũng cảnh báo: đi kèm với cơ hội luôn là rủi ro.
Một trong những chuyên gia đầu ngành lên tiếng về vấn đề này là Natasha Govender-Ropert, Trưởng bộ phận AI chống tội phạm tài chính tại Rabobank.
Khi bộ não dựa dẫm vào AI
Một nghiên cứu gần đây của MIT đã thổi bùng lên loạt tiêu đề giật gân như “ChatGPT có thể làm thui chột não bộ” hay “AI đang khiến con người lười biếng và ngu ngốc hơn” . Nhưng thực tế ra sao?
Các nhà nghiên cứu chia 54 sinh viên ở Boston thành ba nhóm để viết luận:
- Nhóm 1 chỉ dùng não bộ (không công cụ hỗ trợ).
- Nhóm 2 dùng Google.
- Nhóm 3 dùng ChatGPT.
Kết quả đo sóng não cho thấy: nhóm “chỉ dùng não” có mức kết nối thần kinh cao nhất; nhóm dùng ChatGPT thấp nhất. Dường như AI khiến người viết “tự động lái”, ít phải động não hơn.
Đến vòng thứ 4, nhóm đổi vai: những người vốn viết tay được dùng ChatGPT, còn nhóm AI phải tự viết. Kết quả? Bên dùng não trước đó cải thiện chất lượng bài viết, trong khi nhóm quen nhờ AI lại… loay hoay quên cả ý mình từng viết.
Tổng kết 4 tháng thử nghiệm: nhóm “não trần” vượt trội hơn về thần kinh, ngôn ngữ lẫn hành vi. Trong khi đó, nhóm AI thường cắt dán nhanh chóng, bài viết bị giáo viên chấm là thiếu “tư duy gốc” và “cái hồn”.
Nghe có vẻ đáng lo, nhưng thực chất nghiên cứu không hẳn nói đến “não bị thối rữa” mà nhấn mạnh vào thói quen đi đường tắt . Nếu lạm dụng AI, con người dễ bị lười đi, dần trở nên thu động hơn. Nhưng dùng có ý thức, chủ động thì nguy cơ này hoàn toàn có thể tránh được.
Vấn đề nằm ở tư duy phản biện
Điều thú vị là chính các nhà nghiên cứu cũng than phiền… báo chí đưa tin sai lệch. Họ lập hẳn một website FAQ để nhấn mạnh: kết quả chỉ mang tính gợi mở, quy mô nhỏ và chưa được phản biện học thuật, không thể rút ra kết luận tuyệt đối.
Vậy rốt cuộc, thứ “giết chết não bộ” chưa chắc là ChatGPT, mà có thể chính là những tiêu đề kiểu TL;DR để câu view .
Các chuyên gia tại Đại học Vrije Universiteit Amsterdam cảnh báo: nguy cơ lớn nhất không phải mất trí nhớ, mà là suy giảm tư duy phản biện . Khi sinh viên và người dùng tin tưởng quá mức vào giọng điệu “thông thái” của AI, họ ít khi đào sâu, ít chất vấn, và dễ bỏ qua những góc nhìn bị che khuất.
Đây mới là vấn đề cốt lõi: nếu chấp nhận đầu ra của AI như chân lý, chúng ta vô tình nuôi dưỡng định kiến và giả định sai lầm có sẵn trong dữ liệu.
Xã hội công bằng hơn nhờ AI – nhưng phải tỉnh táo
Theo bà Natasha Govender-Ropert, “thiên kiến” không có định nghĩa cố định. "Thứ tôi coi là thiên kiến có thể khác hoàn toàn với bạn". Vì vậy, cần có bộ nguyên tắc rõ ràng để đánh giá và loại bỏ bias trong dữ liệu.
Chuẩn mực xã hội luôn thay đổi, trong khi dữ liệu huấn luyện AI thì không. Muốn AI phục vụ công bằng và có trách nhiệm, con người không chỉ cần công nghệ tốt hơn, mà còn phải giữ thói quen phản biện và tỉnh táo trước mọi thông tin – dù đến từ báo chí hay máy móc.