Con người có xu hướng lợi dụng AI

Đăng Thiên (theo New York Times) | 09/06/2021, 15:37

Một số nghiên cứu chỉ ra rằng con người có xu hướng chống đối, lợi dụng AI vì cho rằng đó là những "con bot" không có tri giác.

Trí tuệ nhân tạo đang dần bắt kịp con người khi các thuật toán có thể liên tục đánh bại con người trong các trò chơi, tạo ra hình ảnh khuôn mặt, viết báo và thậm chí là lái xe tốt hơn hầu hết thanh thiếu niên.

Nhưng AI vẫn chưa hoàn hảo. Lấy Woebot làm ví dụ.

Woebot là một ứng dụng AI trên smartphone cung cấp dịch vụ tư vấn, sử dụng hình thức đối thoại để hướng dẫn người dùng các kỹ thuật cơ bản của liệu pháp nhận thức - hành vi. Tuy nhiên, nhiều nhà tâm lý học nghi ngờ liệu một thuật toán AI có đủ khả năng thể hiện sự đồng cảm cần thiết để làm cho liệu pháp hoạt động hiệu quả hay không.

"Những ứng dụng này thực sự rất thiếu một thành phần thiết yếu trong việc trị liệu, đó là mối quan hệ giao tiếp", Linda Michaels, một nhà trị liệu tại Chicago, đồng chủ tịch của Mạng lưới Hành động Trị liệu Tâm lý, nói với The Times.

Tất nhiên, sự đồng cảm là một con đường hai chiều và con người chúng ta thường không thể hiện nhiều điều đó cho những những thứ như AI. Nhiều nghiên cứu đã phát hiện ra rằng con người thường không sẵn sàng hợp tác với AI trong nhiều tình huống, trong khi ít có khả năng làm như vậy hơn nếu bot là một người thực sự.

Ophelia Deroy, nhà triết học tại Đại học Ludwig Maximilian, ở Munich, cho biết: "Có vẻ còn thiếu điều gì đó liên quan đến sự tương tác qua lại. Về cơ bản, chúng ta sẽ cư xử với một người lạ còn tốt hơn với AI".

Trong một nghiên cứu gần đây, Tiến sĩ khoa học thần kinh Deroy và các đồng nghiệp đã tìm hiểu lý do tại sao lại như vậy. Các cuộc thử nghiệm tiến hành ghép các đối tượng là con người và bot AI với các người chơi bí mật, sau đó mỗi cặp sẽ chơi một trong một loạt các trò chơi cổ điển như Trust, Prisoner’s Dilemma, Chicken và Stag Hunt, cũng như trò chơi mà họ tạo ra có tên là Reciprocity nhằm đánh giá và khen thưởng sự hợp tác.

Con người thường thể hiện ít nghĩa vụ đạo đức, kém hợp tác hơn khi tiếp xúc với AI. Ảnh: AP.

Sự chống đối AI thường được cho là phản ánh sự thiếu tin tưởng. Tiến sĩ Deroy và các đồng nghiệp của bà đưa ra một kết luận khác rằng mọi người ít có khả năng hợp tác với bot ngay cả khi bot rất muốn hợp tác. Việc này không phải do chúng ta không tin tưởng AI mà là do chúng ta biết rằng bot được tạo ra để nghe lời, là một kẻ ngây thơ, vì vậy con người có xu hướng lợi dụng nó.

Tiến sĩ Deroy nói: "Những người tham gia không chỉ có xu hướng không đáp lại ý định hợp tác của các trí tuệ nhân tạo, mà còn phản bội lòng tin của các bot, họ không chia sẻ khi mắc sai lầm trong trò chơi với các bot, trong khi sẵn sàng làm như vậy với con người". Deroy nói thêm, "Bạn đơn giản chỉ làm ngơ AI và không có cảm giác rằng bạn đã vi phạm bất kỳ nghĩa vụ chung nào".

Điều này có thể có ý nghĩa trong thế giới thực. Khi chúng ta nghĩ về AI, chúng ta có xu hướng nghĩ về Alexa và Siri, những trợ lý ảo với thời gian dài tiếp xúc hoàn toàn có khả năng hình thành một loại mối quan hệ thân mật nào đó. Nhưng trên thực tế, hầu hết các tương tác của chúng ta với AI sẽ là những cuộc gặp gỡ một lần, và thường là không lời. Hãy tưởng tượng bạn đang lái xe trên đường cao tốc và một chiếc ôtô làn bên đang muốn vượt sang phía trước bạn. Nếu nhận thấy rằng chiếc xe bên cạnh là phương tiện không người lái, bạn sẽ ít có khả năng cho nó vượt lên. Và nếu thuật toán AI không tính đến hành vi xấu này của con người, một vụ tai nạn có thể xảy ra sau đó.

Tiến sĩ Deroy nói: "Điều duy trì sự hợp tác trong xã hội ở bất kỳ quy mô nào là việc thiết lập các chuẩn mực nhất định. Chức năng xã hội của cảm giác tội lỗi chính xác là thứ khiến mọi người tuân theo các chuẩn mực xã hội và khiến họ phải thỏa hiệp, hợp tác với người khác. Tuy nhiên chúng ta không tiến hóa để có các chuẩn mực xã hội hoặc đạo đức với các sinh vật không có tri giác như AI".

Cũng có những hậu quả tương tự đối với AI. "Nếu mọi người đối xử tệ với nó, và nó đã được lập trình để học hỏi từ những gì nó trải qua", ông nói. "Một AI được lập trình ban đầu phải nhân từ với con người trên đường sẽ không thể làm như vậy mãi, bởi vì nếu không nó sẽ bị mắc kẹt mãi mãi".

Như vậy bài kiểm tra Turing thực sự trong tương lai có thể là bài kiểm tra cơn thịnh nộ trên đường. Khi một chiếc ôtô tự lái bắt đầu bấm còi inh ỏi từ phía sau vì bạn đã tạt đầu nó, bạn sẽ biết rằng nhân loại đã đạt đến đỉnh cao của thành tựu. Đến lúc đó, hy vọng rằng liệu pháp AI sẽ đủ tinh vi để giúp những chiếc xe không người lái giải quyết các vấn đề về quản lý cơn giận của chúng.

Nổi bật Sống xanh
Đừng bỏ lỡ
POWERED BY ONECMS - A PRODUCT OF NEKO