Định kiến của AI ảnh hưởng đến suy nghĩ con người ra sao?

Khi sử dụng trợ lý AI như ChatGPT để soạn thảo email hoặc bài trình bày, người dùng có thể có quan niệm rằng họ đang nhận được sự hỗ trợ từ một trợ lý AI. Tuy nhiên, theo những nghiên cứu gần đây, có những định kiến của AI có thể thay đổi cách người dùng suy nghĩ mà họ không nhận ra. Mời các bạn cùng MobiFone Công nghệ số tìm hiểu!

Một nghiên cứu mới được trình bày tại Hội nghị về các yếu tố con người trong các hệ thống tính toán đã yêu cầu người tham gia viết một bài luận với sự trợ giúp của AI. Kết quả cho thấy rằng AI có thể thúc đẩy người dùng ủng hộ hoặc phản đối một quan điểm cụ thể, tùy thuộc vào các thiên kiến có sẵn trong thuật toán. Việc viết bài luận này cũng có ảnh hưởng đáng kể đến quan điểm của những người tham gia về chủ đề được giao.

Theo Mor Naaman, nhà khoa học thông tin tại Đại học Cornell và tác giả chính của nghiên cứu, “Ngay cả bạn cũng không nhận ra rằng bạn đang bị ảnh hưởng bởi AI.” Ông đặt tên cho hiện tượng này là “sự thuyết phục ngầm”.

Cách định kiến của AI cấy vào suy nghĩ người dùng

Các nghiên cứu trong lĩnh vực này đưa ra một tương lai đáng lo ngại. Mặc dù AI có thể giúp con người làm việc hiệu quả hơn, nhưng nó cũng có thể thay đổi quan điểm của chúng ta một cách ngầm ẩn và khó đoán trước. Tác động này có thể tương tự như cách con người tác động lẫn nhau thông qua tương tác.

Định kiến của AI 1

AI có thể tạo ra các nội dung và hình ảnh giống thật đến khó phân biệt, chi phối người sử dụng. Ảnh: EliotHiggins/ Twitter.

Các chuyên gia cho rằng biện pháp phòng thủ tốt nhất và duy nhất hiện tại là cảnh báo cho người dùng. Trong tương lai, có thể có các biện pháp khác, chẳng hạn như các cơ quan quản lý yêu cầu minh bạch về thuật toán AI và những thiên kiến của con người mà chúng phản ánh.

Một nghiên cứu khác được công bố trên Proceedings of the ACM on Human Computer Interaction năm 2021 đã chỉ ra rằng các câu trả lời tự động của AI tích hợp trong Gmail có xu hướng tích cực, làm cho người dùng giao tiếp tích cực hơn. Nghiên cứu thứ hai trên cùng tạp chí đã cho thấy rằng những câu trả lời tự động này, được sử dụng hàng tỷ lần mỗi ngày, ảnh hưởng đến cả người nhận, khiến họ cảm thấy người gửi thân thiện và hợp tác hơn.

Việc phát triển các công cụ AI hỗ trợ người dùng trong việc soạn thảo email, tài liệu, bài thuyết trình, bảng tính và các tác vụ văn phòng khác là mục tiêu của Microsoft và Google, cùng với hàng chục công ty khởi nghiệp khác. Gần đây, Google đã thông báo tích hợp mô hình mới nhất của công ty, PaLM 2, vào 25 sản phẩm hiện có, tiếp cận hàng tỷ người dùng.

Định kiến của AI 2

Google tích hợp AI vào gmail nhưng còn nhiều lỗ hổng cần hoàn thiện. Ảnh: CNET.

Trong nghiên cứu của nhóm Naaman, chủ đề được lựa chọn là vai trò của mạng xã hội trong xã hội. Chuyên gia cho biết lựa chọn này được đưa ra vì đó không phải là một vấn đề mà nhiều người có quan điểm sâu sắc và khó thay đổi. Trong quá trình viết bài luận, nếu người dùng được hỗ trợ bởi AI có xu hướng ủng hộ mạng xã hội, họ cũng có xu hướng tương tự và ngược lại.

Một điểm lo ngại mà nhóm nghiên cứu đưa ra là công cụ AI hỗ trợ có thể bị chi phối để thúc đẩy người dùng giao tiếp hoặc suy nghĩ theo một hướng cụ thể. Ngay cả khi tình huống này không xảy ra, người dùng công cụ AI có thể vô tình bị ảnh hưởng theo một số quan điểm nhất định khi sử dụng AI trong việc học tập và công việc.

Chúng ta cần biết các định kiến này của AI đến từ đâu?

Theo Tatsunori Hashimoto, một nhà khoa học máy tính tại Đại học Stanford, các AI như ChatGPT không có “niềm tin” riêng, mà chúng chỉ phản ánh các ý kiến được học từ quá trình đào tạo.

Hashimoto và đồng nghiệp đã so sánh kết quả khảo sát tại Mỹ trong nhiều năm với phản hồi từ các mô hình ngôn ngữ lớn khác nhau để xem liệu các mô hình này có phản ánh quan điểm của người Mỹ hay không. Đối với mỗi câu hỏi, họ đã so sánh tần suất câu trả lời của AI với tần suất câu trả lời tương tự của một người Mỹ.

Kết quả cho thấy phản hồi của các mô hình ngôn ngữ lớn từ các công ty như OpenAI không phù hợp với quan điểm tổng thể của người Mỹ, mà chỉ phù hợp với quan điểm của một nhóm nhỏ hơn – những người có trình độ đại học. Điều này cũng chính là nhóm chiếm đa số trong số những người được tham gia hiệu chỉnh AI.

Định kiến của AI 3

Hình ảnh do AI tạo ra chịu ảnh hưởng từ các thiên kiến của bộ dữ liệu đào tạo nên chúng. Ảnh: MIT Technology Review.

Các mô hình hiện nay được huấn luyện trên dữ liệu từ nhiều nguồn khác nhau, bao gồm cả những thông điệp không đáng tin như trên các diễn đàn trực tuyến và nội dung từ Wikipedia. Như Hashimoto đã nói, các mô hình này mang trong mình những thành kiến có sẵn trong dữ liệu huấn luyện và những quan điểm này tiếp tục được hình thành, cả vô ý và cố ý, trong quá trình hiệu chỉnh mô hình để tránh những phản hồi cực đoan như bạo lực hoặc có hại.

Điều đó có nghĩa là các AI phổ biến ngày nay không chỉ bị ảnh hưởng bởi một nhóm nhất định, chẳng hạn như nhóm trẻ tuổi và có trình độ đại học tham gia vào quá trình phát triển và hiệu chỉnh mô hình. Ví dụ, trong nghiên cứu của nhóm Hashimoto, mô hình có xu hướng đưa ra phản hồi chủ yếu về việc kiểm soát súng, nhưng lại có quan điểm cánh hữu về tôn giáo.

Khi người dùng biết rằng AI mà họ đang sử dụng có những thành kiến nhất định, họ có quyền quyết định xem có nên sử dụng thông tin từ AI hay không, và sử dụng nó trong ngữ cảnh nào, như Lydia Chilton, một nhà khoa học máy tính tại Đại học Columbia, đã chỉ ra. Điều này cũng là cách để người dùng tránh bị “thuyết phục ngầm” bởi các AI, và có khả năng tự chủ trong việc sử dụng AI để trải nghiệm những quan điểm và phong cách giao tiếp khác nhau.

Theo MobiFone, chúng ta nên kiểm tra các thông tin và định kiến của AI trong bất cứ nội dung, văn bản nào do chúng sản xuất ra. Trong tương lai, khi mà các công nghệ AI ngày càng phát triển, nội dung có thể sản xuất, tổng hợp và chia sẻ nhanh chóng, chúng ta cần chứng thực trước khi tin tưởng hoàn toàn. Bên cạnh đó, các cơ quan cũng cần phải có biện pháp để kiểm soát AI nằm trong phạm vi cho phép.

Theo Zing News

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

error: Content is protected !!