Ảnh minh họa. (Nguồn: Forbes) |
Ông David Caswell, Giám đốc Điều hành sản phẩm của BBC News dự đoán rằng: “Trong ba năm tới, công nghệ trí tuệ nhân tạo sẽ thay đổi ngành báo chí nhiều hơn những gì ngành này đã trải qua trong 30 năm qua”.
Ảnh minh họa. (Nguồn: Forbes) |
“Nồi lẩu” ngôn ngữ trong báo chí
Trong ngành báo chí, rất nhiều cơ quan, tòa soạn trên thế giới từ lâu đã ứng dụng công nghệ trí tuệ nhân tạo trong quá trình truyền tải tin tức.
Hãng thông tấn AP (Associated Press) bắt đầu xuất bản báo cáo tài chính tự động từ năm 2014.
Tờ New York Times (Mỹ) sử dụng thuật toán máy học để quyết định số bài báo miễn phí độc giả được đọc trước khi phải đăng ký trả phí. Đài truyền hình Bayerischer Rundfunk của Đức sử dụng trí tuệ nhân tạo để kiểm duyệt các bình luận trực tuyến.
Tuy nhiên, theo phóng viên công nghệ của The Economist, việc tổng hợp lại thông tin trên internet, các mô hình tạo nội dung mới lại đang gây xáo trộn bài báo.
Ông David Caswell của BBC cho hay, thay vì một bản phác thảo đầu tiên về lịch sử, tin tức có thể trở thành một “nồi lẩu” ngôn ngữ. Mỗi tờ báo thường có một phong cách, quy tắc sử dụng từ ngữ riêng gắn liền với thương hiệu của tòa soạn. Nhưng khi trí tuệ nhân tạo tham gia vào quá trình này, sự đặc sắc này sẽ phần nào mất đi.
Thay vào đó vào phong cách ngôn ngữ của trí tuệ nhân tạo - thứ thay đổi từng ngày theo Internet. Khi đó, tin tức có thể trở thành một “nồi lẩu” ngôn ngữ.
Các "trang trại chăn dắt nội dung" của trí tuệ nhân tạo
Theo một cuộc điều tra của NewsGuard, một công ty theo dõi thông tin sai sự thật trên internet, cho đến nay, các chatbot đóng giả nhà báo đang quản lý gần 50 “trang trại nội dung” (content farms) do trí tuệ nhân tạo (AI) tạo ra.
Giới nghiên cứu cũng phát hiện ra rằng, các trang web này sản xuất hàng loạt nội dung liên quan tới chính trị, sức khỏe, môi trường, tài chính và công nghệ với khối lượng lớn nhằm tăng doanh thu của nguyên liệu nhanh chóng để bão hòa với các quảng cáo để kiếm lợi nhuận.
McKenzie Sadeghi và Lorenzo Arvanitis, hai nhà phân tích của NewsGuard cho biết: “Một số trang web xuất bản hàng trăm bài báo mỗi ngày. Một số nội dung trong đó lan truyền thông tin sai sự thật. Ngoài ra, hầu hết nội dung đều có các dấu hiệu đặc trưng của việc sử dụng trí tuệ nhân tạo như ngôn từ khô khan và các cụm từ lặp đi lặp lại.”
Theo The Guardian, cho tới thời điểm hiện tại, tổng cộng có tới 49 trang web với 7 ngôn ngữ: tiếng Anh, tiếng Trung, tiếng Séc, tiếng Pháp, tiếng Bồ Đào Nha, tiếng Tagalog và tiếng Thái, được xác định là “hoàn toàn hoặc chủ yếu” do các mô hình ngôn ngữ trí tuệ nhân tạo tạo ra.
Gần một nửa trong số đó không có hồ sơ về quyền sở hữu hoặc quyền kiểm soát rõ ràng và chỉ có bốn trang web có thể liên lạc được.
Trí tuệ nhân tạo AI đang làm mờ đi ranh giới giữa thực và ảo
Sự phổ biến của hình ảnh, video và âm thanh do trí tuệ nhân tạo tạo ra là một thách thức đối với các nhà hoạch định chính sách trong bối cảnh công nghệ này đang ngày càng được nâng cấp trong việc bắt chước thực tế. Trong vài tuần qua, những hình ảnh giả mạo về cựu Tổng thống Donald Trump xô xát với cảnh sát đã được lan truyền chóng mặt.
Hình ảnh ông Donald Trump bị cảnh sát bắt giữ được ông Eliot Higgins, nhà sáng lập Bellingcat tạo ra bằng phần mềm tạo ảnh sử dụng trí tuệ nhân tạo, Midjourney. (Nguồn: AP) |
Tương tự, một bài hát giả sử dụng giọng nhân bản của các ngôi sao nhạc pop như Drake và The Weeknd cũng lan truyền rộng rãi trên các phương tiện truyền thông như Twitter và Facebook, thu hút hàng trăm nghìn lượt tương tác.
Không chỉ vậy, trong vài năm gần đây, trí tuệ nhân tạo đã được sử dụng để chèn kỹ thuật số khuôn mặt của những người phụ nữ vào các video khiêu dâm không có sự đồng thuận của họ. Những deepfakes này thường nhắm vào những người nổi tiếng và đôi khi chúng được sử dụng để trả thù các cá nhân.
Đây là những thí dụ gần đây nhất về mối nguy hại tiềm ẩn của các deepfake video và audio - những hình ảnh và âm thanh có thể mô phỏng chính xác khuôn mặt và giọng nói của người nổi tiếng nhờ công nghệ của trí tuệ nhân tạo như ChatGPT, Midjourney, DALL-E 2.
Điều này đặt ra thách thức lớn trong việc quản lý và ngăn chặn công nghệ này khỏi bị lạm dụng để tuyên truyền chính trị, thao túng các cuộc bầu cử và tạo ra lịch sử hoặc video giả về những điều chưa từng xảy ra.
Sử dụng trí tuệ nhân tạo một cách có đạo đức
Ngày 11/5, Google - công ty con của Tập đoàn Alphabet, đã cho ra mắt phần mềm chatbot AI Bard tại thị trường Australia khi công ty giới thiệu những tiến bộ trong trí tuệ nhân tạo và cam kết triển khai công nghệ này một cách có đạo đức.
Cũng tương tự như cách ChatGPT được xây dựng trên công nghệ GPT của OpenAI, Bard là chương trình trò chuyện được phát triển dựa trên mô hình ngôn ngữ lớn (large language model, hay LLM) của Google, PaLM2. Công cụ này có thể cung cấp thông tin, viết mã, dịch ngôn ngữ và phân tích hình ảnh.
Bard sẽ cung cấp các phản hồi trực quan bên cạnh các phản hồi dựa trên văn bản. Trong tương lai, người dùng sẽ có thể tải lên hình ảnh để Bard phân tích thông qua ứng dụng Lens của Google.
Google đã đưa ra thí dụ về một bức ảnh chụp hai chú chó với lời nhắc “viết một chú thích hài hước cho hai chú chó này” và Bard sẽ có thể xác định giống chó và soạn thảo câu trả lời.
Trong nỗ lực giải quyết các vấn đề “ảo giác” (hallucination) của trí tuệ nhân tạo mà theo đó trí tuệ nhân tạo tạo ra một văn bản hoặc thông tin có nguồn gốc mà nó tuyên bố là đúng, Bard sẽ có một chú thích về các thông tin có nguồn gốc ở nơi khác và cung cấp một liên kết đến nguồn đó.
Ông Sundar Pichai, giám đốc điều hành của Google, cho biết tất cả các mô hình trí tuệ nhân tạo của hãng sẽ bao gồm việc sử dụng hình mờ (watermark) và siêu dữ liệu (metadata) nhằm cho phép mọi người biết rằng nội dung do trí tuệ nhân tạo sản xuất.