Đối với nhiều người làm báo, nửa đầu năm 2023 là thời điểm để đặt câu hỏi và tìm hiểu những kiến thức cơ bản về AI. ChatGPT thực sự có thể làm gì? AI tạo sinh là gì? Mô hình ngôn ngữ là gì? "Lời nhắc" là gì? Những công cụ này đáng tin cậy đến mức nào? Những loại kỹ năng cần thiết để sử dụng chúng? Công nghệ này cải tiến nhanh đến mức nào? Những rủi ro là gì? Bao nhiêu trong số tất cả những điều này chỉ là sự cường điệu?
Các công ty quảng cáo rầm rộ sản phẩm của họ và hầu hết các nhà báo đều chưa đủ quen với công nghệ này. Thực tế cho thấy không ít các bài báo lặp lại các tuyên bố PR một cách thiếu chính xác, lạm dụng hình ảnh robot, gán tác nhân cho AI, hoặc hạ thấp các hạn chế của chúng, đánh lừa và thông tin sai lệch cho người đọc về tiềm năng và hạn chế của AI.
Nhận thấy rằng nhiều bài viết có xu hướng gây hiểu lầm theo những cách tương tự, vì vậy, thông qua một phân tích hơn 50 bài viết về AI từ các ấn phẩm lớn, từ đó những cạm bẫy thường xuyên xảy ra đã được tổng hợp. Hy vọng rằng việc làm quen với những điều này sẽ giúp phát hiện ra sự cường điệu bất cứ khi nào nhìn thấy nó; đồng thời sẽ giúp các nhà báo tránh được chúng.
Các ví dụ điển hình
Vào tháng 12/2019, tờ New York Times (NYT) đã xuất bản một bài viết về sản phẩm công nghệ giáo dục (EdTech) có tên Bakpax. Đây là một bài viết dài 1.500 từ, không cung cấp độ chính xác, sự cân bằng cũng như bối cảnh. Nó gần như có nguồn gốc hoàn toàn từ người phát ngôn của công ty và tác giả đã mượn rất nhiều tài liệu PR của Bakpax để phóng đại vai trò của AI.
Để thu hút sự chú ý vào AI, bài báo đã giảm thiểu sức lao động của con người từ các giáo viên để duy trì hệ thống vận hành - chẳng hạn như phát triển và số hóa các bài tập.
Điều này hầu như không có gì đáng ngạc nhiên: EdTech là một lĩnh vực được thổi phồng quá mức. Trong thập kỷ qua, đã có hàng trăm sản phẩm EdTech được cho là sẽ “cách mạng hóa” giáo dục. Bất chấp hàng tỷ đô la được tài trợ, nhiều sản phẩm trong số đó, vẫn thất bại. Thật đáng tiếc, bài viết không đề cập bất kỳ bối cảnh nào về lịch sử này…
Cũng trong năm 2019, CNN đã đăng tải bài viết về một nghiên cứu về AI. Dường như có chủ ý, bài viết tập trung vào sự thành công của các công cụ AI trong chẩn đoán, trong khi nghiên cứu phát hiện ra rằng ít hơn 1% bài báo về các công cụ AI tuân theo các phương pháp báo cáo. Trên thực tế, một chuyên gia được trích dẫn ở cuối bài nhấn mạnh rằng đây chính là thông điệp thực sự của nghiên cứu.
Bên cạnh đó, ảnh bìa của bài viết là hình ảnh cánh tay robot đang bắt tay với con người, dù nghiên cứu chỉ nhằm tìm kiếm các mẫu hình trong hình ảnh y tế. Những hình ảnh hình người này đưa ra cái nhìn sai lệch về AI, như đã mô tả.
Vào tháng 11/2021, tờ Financial Times đã xuất bản một bài báo về một sản phẩm có tên Sciolink trình bày một cái nhìn hoàn toàn phiến diện về việc giám sát từ xa. Nó hầu như chỉ trích dẫn những người tạo ra Sciolink và không cung cấp ngữ cảnh nào về những hạn chế và rủi ro của các công cụ giám sát từ xa.
Nhiều trường học và đại học đã áp dụng phần mềm giám sát từ xa trong đại dịch COVID-19. Những công cụ này có thiên kiến (bias) và thiếu giá trị, cho phép giám sát và gây ra các mối lo ngại khác. Đã có một làn sóng phản đối việc giám sát từ xa từ các sinh viên, tổ chức phi lợi nhuận và - thậm chí cả các thượng nghị sĩ.
So sánh con người - AI là thiếu sót
Một so sánh sai lầm giữa các công cụ AI và con người: ngụ ý rằng các công cụ AI và con người giống nhau về cách học và thực hiện. Tại sao điều này là một vấn đề? Thay vì mô tả AI như một tập hợp rộng rãi các công cụ, những so sánh như vậy nhân cách hóa các công cụ AI và ngụ ý rằng chúng có tiềm năng hoạt động như những tác nhân trong thế giới thực.
Cạm bẫy 1. Gán quyền cho AI:
Mô tả các hệ thống AI thực hiện các hành động độc lập với sự giám sát của con người hoặc ngụ ý rằng chúng có thể sớm làm được như vậy.
Cạm bẫy 2. Hình ảnh gợi ý:
Hình ảnh robot hình người thường được sử dụng để minh họa cho các bài viết về AI, ngay cả khi bài viết đó không liên quan gì đến robot. Điều này khiến người đọc có ấn tượng sai lầm rằng các công cụ AI được thể hiện, ngay cả khi nó chỉ là phần mềm học các mẫu từ dữ liệu.
Cạm bẫy 3. So sánh với trí thông minh của con người:
Trong một số trường hợp, các bài viết về AI ngụ ý rằng các thuật toán AI học theo cách giống như con người. Ví dụ, việc so sánh các thuật toán học sâu với cách thức hoạt động của bộ não con người là điều phổ biến. Những so sánh như vậy có thể tạo nên sự tin cậy cho những tuyên bố rằng AI “có tri giác”, như TS. Timnit Gebru và TS. Margaret Mitchell đã lưu ý trong bài báo gần đây của họ.
Cạm bẫy 4. So sánh với kỹ năng của con người: Tương tự, các bài viết thường so sánh mức độ hoạt động của các công cụ AI với kỹ năng của con người trong một nhiệm vụ nhất định. Điều này ngụ ý sai lầm rằng các công cụ AI và con người cạnh tranh bình đẳng che giấu sự thật rằng các công cụ AI chỉ hoạt động trong một phạm vi cài đặt hẹp.
Tuyên bố cường điệu, không chính xác hoặc không thể chứng minh về AI
Những tuyên bố về các công cụ AI mang tính suy đoán, giật gân hoặc không chính xác có thể lan truyền sự cường điệu về AI. Tại sao điều này là một vấn đề? Những tuyên bố như vậy mang lại cảm giác sai lầm về sự tiến bộ trong AI và gây khó khăn cho việc xác định những tiến bộ thực sự đang được thực hiện ở đâu.
Cạm bẫy 5. Cường điệu:
Việc mô tả các hệ thống AI mang tính cách mạng hoặc đột phá mà không có bằng chứng cụ thể về hiệu suất của chúng sẽ gây ấn tượng sai lầm về mức độ hữu ích của chúng trong một bối cảnh nhất định. Vấn đề này càng trở nên trầm trọng hơn khi các công cụ AI được triển khai trong bối cảnh mà chúng được biết là đã từng gặp lỗi. Chúng ta nên nghi ngờ về tính hiệu quả của các công cụ AI trong những bối cảnh này.
Cạm bẫy 6. So sánh thiếu chính xác với những biến đổi lịch sử:
So sánh các công cụ AI với những biến đổi lịch sử lớn như phát minh ra điện hay cách mạng công nghiệp là một chiến thuật tiếp thị tuyệt vời. Tuy nhiên, khi các bài báo áp dụng những thuật ngữ này, chúng có thể truyền tải cảm giác sai lầm về tiềm năng và sự tiến bộ - đặc biệt khi những tuyên bố này không được chứng minh bằng bằng chứng thực tế.
Cạm bẫy 7. Những tuyên bố không chính đáng về sự tiến bộ trong tương lai:
Chẳng hạn, những tuyên bố về sự phát triển trong tương lai của các công cụ AI sẽ ảnh hưởng đến một ngành như thế nào, bằng cách ngụ ý rằng các công cụ AI chắc chắn sẽ hữu ích trong ngành đó. Khi những tuyên bố này được đưa ra mà không có bằng chứng, chúng chỉ là suy đoán.
Cạm bẫy 8. Tuyên bố sai về tiến độ: Trong một số trường hợp, các bài báo bao gồm những tuyên bố sai về những gì công cụ AI có thể làm.
Cạm bẫy 9. Tuyên bố không chính xác về một nghiên cứu báo cáo:
Các bài báo thường trích dẫn các nghiên cứu học thuật để chứng minh cho tuyên bố của họ. Thật không may, thường có một khoảng cách giữa những tuyên bố được đưa ra dựa trên một nghiên cứu học thuật và những gì nghiên cứu đó báo cáo.
Cạm bẫy 10. Các thuật ngữ nghe có vẻ sâu sắc cho những hành động tầm thường:
Như GS. Emily Bender thảo luận trong công trình mổ xẻ sự cường điệu về AI, việc sử dụng các cụm từ như “hành động cơ bản của việc dự đoán từ tiếp theo” hoặc “sự kỳ diệu của AI” ngụ ý rằng một công cụ AI đang làm điều gì đó đáng chú ý. Nó che giấu mức độ trần tục của các nhiệm vụ.
Nền tảng thiếu phê phán cho những người có lợi ích cá nhân
Các bài báo thường sử dụng các tuyên bố PR và trích dẫn từ người phát ngôn của công ty để chứng minh cho tuyên bố của họ mà không cung cấp đầy đủ bối cảnh hoặc sự cân bằng. Tại sao điều này là một vấn đề?
Việc nhấn mạnh ý kiến của các bên có lợi ích riêng mà không đưa ra các quan điểm thay thế có thể mang lại cảm giác lạc quan quá mức về tiến bộ.
Cạm bẫy 11. Đối xử với người phát ngôn và nhà nghiên cứu của công ty như những bên trung lập:
Khi một bài báo chỉ hoặc chủ yếu có trích dẫn từ người phát ngôn của công ty hoặc nhà nghiên cứu đã xây dựng công cụ AI, thì bài báo đó có thể quá lạc quan về lợi ích tiềm năng của công cụ này.
Cạm bẫy 12. Lặp lại hoặc sử dụng lại các thuật ngữ và tuyên bố PR:
Các bài báo thường sử dụng lại các thuật ngữ trong các tuyên bố PR của công ty thay vì mô tả cách hoạt động của một công cụ AI. Điều này có thể trình bày sai khả năng thực tế của một công cụ.
Hạn chế chưa được giải quyết
Những lợi ích tiềm tàng của công cụ AI được nhấn mạnh nhưng những hạn chế tiềm ẩn không được giải quyết hoặc nhấn mạnh. Tại sao điều này là một vấn đề? Phân tích một chiều về các công cụ AI có thể che giấu những hạn chế tiềm ẩn của những công cụ này.
Cạm bẫy 13. Không thảo luận về những hạn chế tiềm ẩn:
Những hạn chế như xác thực không đầy đủ, sai lệch và khả năng sử dụng kép gây khó khăn cho hầu hết các công cụ AI. Khi những hạn chế này không được thảo luận, người đọc có thể có cái nhìn sai lệch về những rủi ro liên quan đến các công cụ AI.
Cạm bẫy 14. Những hạn chế không được nhấn mạnh:
Ngay cả khi một bài viết thảo luận về những hạn chế và trích dẫn các chuyên gia có thể giải thích chúng, những hạn chế thường bị hạ thấp trong cấu trúc của bài viết, chẳng hạn như bằng cách đặt chúng ở cuối bài viết hoặc dành cho chúng một không gian hạn chế.
Cạm bẫy 15. Những hạn chế được giải quyết trong khuôn khổ “những người hoài nghi”:
Những hạn chế của các công cụ AI có thể được đưa ra trong khuôn khổ bài viết bởi các chuyên gia định vị, những người giải thích những hạn chế này là những người hoài nghi không nhìn thấy tiềm năng thực sự của AI.
Cạm bẫy 16. Xem thường sức lao động của con người:
Khi thảo luận về các công cụ AI, các bài báo thường nhấn mạnh vai trò của tiến bộ kỹ thuật và hạ thấp toàn bộ sức lao động của con người cần thiết để xây dựng hệ thống hoặc duy trì hoạt động của hệ thống. Việc hạ thấp sức lao động của con người khiến người đọc hiểu lầm rằng các công cụ AI hoạt động tự chủ, thay vì làm rõ rằng chúng đòi hỏi chi phí đáng kể về sức lao động của con người.
Cạm bẫy 17. Các số hiệu suất được báo cáo mà không có ước tính hoặc cảnh báo về độ không chắc chắn:
Hiếm khi có đủ chỗ trong một bài báo để giải thích cách tính các hiệu suất như độ chính xác cho một ứng dụng nhất định hoặc những gì chúng thể hiện. Việc đưa những con số như “độ chính xác 90%” vào nội dung bài viết mà không nêu rõ cách tính những con số này có thể khiến người đọc hiểu sai về hiệu quả của một công cụ AI.
Hơn nữa, các công cụ AI bị suy giảm hiệu suất ngay cả khi có những thay đổi nhỏ đối với bộ dữ liệu mà chúng được đánh giá. Do đó, con số hiệu suất tuyệt đối có thể đánh lừa người đọc về hiệu quả của những công cụ này trong thế giới thực.
Cạm bẫy 18. Ngụy biện về tính không thể hiểu được:
Việc coi các công cụ AI là hộp đen không thể hiểu được là một sai lầm về danh mục. Thay vì buộc các nhà phát triển những công cụ này phải chịu trách nhiệm về các lựa chọn thiết kế của họ, nó chuyển sự giám sát kỹ lưỡng sang các khía cạnh kỹ thuật của hệ thống. Các nhà báo nên yêu cầu các nhà phát triển phải chịu trách nhiệm về hiệu suất của các công cụ AI thay vì coi những công cụ này là hộp đen và cho phép các nhà phát triển trốn tránh trách nhiệm.
Mặc dù 18 cạm bẫy này xuất hiện trong các bài viết được phân tích, nhưng vẫn có những vấn đề khác vượt ra ngoài từng bài viết riêng lẻ. Ví dụ, khi những câu chuyện về việc AI xóa sổ loài người được thảo luận rộng rãi, chúng đã làm lu mờ các vấn đề hiện tại trong thế giới thực như sự thiên vị và sự thiếu hiệu lực của các công cụ AI. Điều này nhấn mạnh rằng các phương tiện truyền thông tin tức phải đóng vai trò thiết lập chương trình nghị sự của mình một cách có trách nhiệm.
Trong thế giới số hiện nay, những vấn đề trên không chỉ là cảnh báo trong báo chí mà cũng rất cần được các cơ quan, tổ chức quan tâm để quản lý, ứng dụng AI vào các hoạt động phát triển chính phủ số, kinh tế số như sử dụng AI làm trợ lý ảo hỗ trợ giải quyết thủ tục hành chính, AI hỗ trợ marketing trong thương mại điện tử.../.
Tài liệu tham khảo:
https://www.aisnakeoil.com/
https://www.aimyths.org/ai-has...
https://reutersinstitute.polit...