Nhận định trên được TS. Nguyễn Như Hà, Trưởng khoa Luật Kinh tế, Học viện Chính sách và Phát triển chia sẻ tại Tọa đàm Tác động của hệ thống AI Chatbot đến giáo dục đại học diễn ra chiều nay (27/2).
TS. Nguyễn Như Hà, Trưởng khoa Luật Kinh tế, Học viện Chính sách và Phát triển. (Ảnh: APD) |
Theo các chuyên gia, ChatGPT được xây dựng dựa trên GPT - Generative Pre-trained Transformers. Đây là mô hình ngôn ngữ được huấn luyện trước, sử dụng học sâu, được ứng dụng để tạo ra văn bản giống con người. GPT đã trải qua nhiều giai đoạn phát triển, với GPT-1 đã được công bố vào năm 2017, GPT-2 công bố năm 2019 và GPT-3 là năm 2020. ChatGPT được xây dựng dựa trên GPT-3.5. Đặc biệt, ChatGPT nói riêng hay các AI Chatbot nói chung ngày càng thông minh nhờ khả năng tự học và nếu biết khai thác sẽ trở thành công cụ hỗ trợ rất tốt trong đời sống, giáo dục.
Số liệu thống kê của Tidio cho thấy, hiện tại có khoảng 20% doanh nghiệp sử dụng AI Chatbot, phần lớn sẽ dùng để phục vụ mục đích kinh doanh, chăm sóc khách hàng.
Bên cạnh những mặt tích cực, theo TS. Đặng Xuân Thọ, Chuyên gia AI tại Khoa CNTT, Trường Đại học Sư phạm Hà Nội, ChatGPT cũng có những giới hạn nhất định, đó là thi thoảng sẽ tạo ra những thông tin không chính xác, có thể tạo ra hướng dẫn có hại hoặc nội dung thiên vị. Bên cạnh đó, “kiến thức” của ChatGPT còn hạn chế về thế giới và các sự kiện sau năm 2021.
Tuy nhiên, sự phát triển nhanh của ChatGPT và các ứng dụng AI Chatbot đang đặt ra nhiều vấn đề liên quan đến góc độ pháp lý, bản quyền.
Theo TS. Nguyễn Như Hà, Trưởng khoa Luật Kinh tế, Học viện Chính sách và Phát triển, ChatGPT hoạt động dựa trên khai thác dữ liệu do con người cung cấp và sử dụng nguồn dữ liệu lớn từ Internet.
“Việc thu thập dữ liệu đó có hợp pháp không? Các sản phẩm do ChatGPT tạo ra khó đảm bảo tính hợp pháp nếu dữ liệu đầu vào không đảm bảo tính hợp pháp, dẫn tới khả năng xâm hại tới an ninh quốc gia, lợi ích cộng đồng, lợi ích cá nhân…”, TS. Nguyễn Như Hà cảnh báo.
Ông Hà cũng đặt vấn đề về trách nhiệm nếu các sản phẩm do ChatGPT tạo ra xâm hại tới lợi ích của người khác, bởi con người thiết kế và vận hành ChatGPT nhưng ChatGPT mới là chủ thể tạo ra sản phẩm.
Về vấn đề bản quyền, sở hữu trí tuệ, theo ông Hà, ChatGPT là chủ thể sáng tạo ra các tác phẩm nhưng lại không phải là một chủ thể trong quan hệ pháp luật. Vì vậy, ChatGPT không có khả năng được công nhận và được pháp luật bảo hộ là tác giả của tác phẩm.
“ChatGPT thu thập dữ liệu lớn, trong đó có dữ liệu sao chép hoặc trích xuất từ nền tảng Internet. Nếu ChatGPT lấy ý tưởng và tri thức khoa học chứa đựng trong các dữ liệu đó để tạo ra các sản phẩm viết khác thì có bị xử lý về hành vi vi phạm bản quyền hay không?”, TS. Nguyễn Như Hà nói.
Một dẫn chứng là gần đây, Tổng thống Israel Isaac Herzog đã trở thành nhà lãnh đạo thế giới đầu tiên công khai sử dụng ChatGPT vào việc soạn thảo một phần bài phát biểu trong Hội nghị toàn cầu về an ninh mạng tại thành phố Tel Aviv, Israel.
Bên cạnh đó, ông Hà cũng dự báo, nếu như hiện tại ChatGPT vẫn thực hiện tác vụ theo yêu cầu của con người, thì trong tương lai gần, ChatGPT có thể trở nên thông minh hơn và tự hành động, thậm chí việc thực hiện tác vụ đó có thể gây hại cho con người.
Ông Hà cho rằng, ChatGPT nói riêng và AI Chatbot nói riêng có rất nhiều đối tượng để bảo hộ ở góc độ pháp luật về quyền sở hữu trí tuệ như bản quyền, sáng chế, bí mật kinh doanh, chứ không chỉ là một chương trình máy tính. Do đó, đây là một thách thức mới với các quốc gia, khi mà đến nay các quốc gia vẫn còn đang “đau đầu” trong việc xây dựng hành lang pháp lý hoàn chỉnh cho các vấn đề tiền ảo, blockchain…