Một bức thư kêu gọi tạm dừng đào tạo các hệ thống trí tuệ nhân tạo (AI) mạnh hơn GPT-4 trong vòng 6 tháng đã gây ra một làn sóng phẫn nộ khi một số người cho biết họ đã bị mạo danh để ký tên.

Elon Must cảnh báo về AI 1

Elon Musk và các chuyên gia công nghệ khác đang xem AI là mối lo ngại lớn của nhân loại. Ảnh: Envato Elements

Bức thư được ký bởi hơn 30.000 người, trong đó có những nhân vật công nghệ nổi tiếng như Elon Musk của Tesla, Steve Wozniak của Apple, chính trị gia Andrew Yang và nhiều nhà nghiên cứu AI hàng đầu.

Elon Musk cảnh báo về AI 2

Sam Altman – CEO của OpenAI, người được cho là đã bị mạo danh để ký tên vào thư kêu gọi tạm ngưng phát triển AI! Ảnh: Vice

Tuy nhiên, ngay sau khi bức thư được lan truyền, nhiều người cho biết họ đã bị mạo danh để ký tên, trong đó có CEO của OpenAI – Sam Altman và nhà nghiên cứu AI của Meta – Yann LeCun.

Điều này đã gây ra tranh cãi về tính xác thực của bức thư và tác động của việc mạo danh này đến tính hợp pháp của việc kêu gọi tạm dừng đào tạo các hệ thống AI mạnh hơn GPT-4. Tuy nhiên, những người ủng hộ bức thư cho rằng điều này không phải là vấn đề quan trọng, và rằng chính nội dung của bức thư mới là điều cần được quan tâm.

Bức thư được viết bởi Viện Tương lai Cuộc sống, một tổ chức phi lợi nhuận có sứ mệnh giảm thiểu rủi ro toàn cầu từ công nghệ. Nhiều nhân vật nổi tiếng trong giới công nghệ, như tỷ phú Elon Musk và các nhân viên của Google DeepMind và Microsoft, đã tham gia ký tên vào bức thư này.

Elon Musk cảnh báo về AI 3

Bức thư kêu gọi tạm ngưng phát triển AI nhận được sự ủng hộ của Elon Musk và nhiều chuyên gia khác! Ảnh: Vice

Theo bức thư, các phòng thí nghiệm AI nên sử dụng khoảng thời gian này để phát triển các hệ thống an toàn cho thiết kế và phát triển AI tiên tiến, được kiểm tra và giám sát chặt chẽ bởi các chuyên gia độc lập bên ngoài.

“Chỉ nên phát triển các hệ thống AI mới khi chúng mang lại tác động tích cực và con người có thể kiểm soát mọi rủi ro”, bức thư nhấn mạnh.

Tuy nhiên, điều này không có nghĩa là tạm dừng phát triển AI nói chung, mà chỉ đơn thuần là sự chuẩn bị để phát triển lên một tầm cao mới.

Như vậy, bức thư này không phản đối sự tiến bộ của trí tuệ nhân tạo, nhưng muốn đảm bảo rằng nó sẽ được phát triển một cách an toàn và có lợi cho con người. Các chuyên gia đang lo ngại rằng các hệ thống AI mạnh hơn có thể gây ra những hậu quả không mong muốn và đặt con người vào những tình huống nguy hiểm. Vì vậy, bức thư này là một lời kêu gọi đúng đắn để giảm thiểu rủi ro toàn cầu từ công nghệ trí tuệ nhân tạo.

Trong khi nhà khoa học máy tính Yoshua Bengio, người đã ký vào bức thư, cảm thấy lo ngại về sự “bành trướng” của công nghệ AI và quyền lực đang tập trung về các công ty công nghệ, các chuyên gia khác lại cho rằng bức thư này đang “thổi phồng” tác hại của AI mà không đề xuất giải pháp thực tế để giải quyết những vấn đề hiện tại.

Elon Musk cảnh báo về AI 4

Bên cạnh sự đồng tình, một số chuyên gia khác đánh giá Elon Musk đang quá thổi phồng sự việc. Ảnh: Shutterstock.

Các chuyên gia AI cho rằng bức thư đang tập trung vào chủ nghĩa “longtermism”, một tư tưởng được cho là độc hại và phản dân chủ, vì nó đề cao giá trị của những người giàu có và cổ xúy những hành vi vi phạm đạo đức dưới danh nghĩa vì nhân loại.

Một số chuyên gia khác lại cho rằng bức thư quá tập trung vào những rủi ro giả định của AI mà bỏ qua những vấn đề hiện tại cần được giải quyết, chẳng hạn như đánh cắp dữ liệu, nghèo đói ở Châu Phi hay phát triển xã hội.

Có người cho rằng những câu hỏi trong bức thư như “liệu AI có thay thế con người và tiếp quản nền văn minh nhân loại hay không” là quá xa vời, khiến chúng ta sao lãng các vấn đề hiện tại. Theo họ, AI được tạo ra để phục vụ con người, không phải để thay thế chúng ta.

Tuy nhiên, không thể phủ nhận rằng công nghệ AI đang phát triển rất nhanh và có thể gây ra những hậu quả không mong muốn. Do đó, cần có sự cân nhắc và giám sát cẩn thận trong việc phát triển và sử dụng trí tuệ nhân tạo, đồng thời tìm ra giải pháp để sử dụng công nghệ này một cách an toàn và có lợi cho con người.

Nguồn: Zing News

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

error: Content is protected !!