Porcha Woodruff, một phụ nữ đang mang thai 8 tháng, đã bị cảnh sát Mỹ bắt với cáo buộc cướp xe và tài sản dựa trên việc hệ thống trí tuệ nhân tạo nhận dạng sai một kẻ cướp và gán nhầm dữ liệu khuôn mặt cho cô.

“Các anh có thể đùa à, tôi bị cáo buộc cướp xe? Anh có thấy tôi đang mang thai 8 tháng không?” – Porcha Woodruff, một phụ nữ da màu sinh sống tại Detroit, Michigan (Mỹ), chia sẻ với sáu viên cảnh sát đã đến tận nhà cô.

Porcha Woodruff bị bắt oan vào đầu tháng 8. Ảnh: NYPost

Người phụ nữ bị bắt oan hồi đầu tháng 8.

Sau khi bị bắt giữ, Woodruff bị tiến hành thẩm vấn trong khoảng 11 giờ. Sau khi được phóng thích với số tiền thế chấp là 100.000 USD, người phụ nữ mang thai tám tháng đã phải nhập viện vì tình trạng mất nước. Một tháng sau đó, Woodruff đã được xóa án vì thiếu bằng chứng đủ để buộc tội.

Hồ sơ cảnh sát cho thấy rằng cô là nạn nhân của việc AI nhận dạng khuôn mặt hoạt động không chính xác. Trong đoạn video ghi lại cảnh một người phụ nữ cướp xe tại một trạm xăng, hệ thống nhận dạng khuôn mặt đã xác định Woodruff là tội phạm. Tuy nhiên, tài liệu điều tra chỉ tập trung vào dữ liệu khuôn mặt mà không đề cập đến việc người phụ nữ có đang mang thai hay không.

Woodruff trở thành trường hợp thứ ba bị cảnh sát Detroit bắt nhầm vì việc nhận dạng khuôn mặt sai lầm. Cô cũng là nạn nhân thứ sáu của công nghệ này tại Mỹ. Tất cả những người bị bắt oan đều là người da màu.

Trong nhiều năm qua, các chuyên gia và người ủng hộ quyền riêng tư đã cảnh báo về tình trạng AI không thể định rõ chính xác người da màu trong các hệ thống nhận dạng. Tuy nhiên, các cơ quan thực thi pháp luật và chính phủ tại Mỹ vẫn tiếp tục hợp tác với nhiều công ty, bao gồm cả Rekognition của Amazon và Clearview AI. Các quốc gia như Pháp, Đức, Trung Quốc và Italy cũng đã triển khai công nghệ tương tự.

Vào đầu năm nay, chính phủ Pháp thông qua một luật cho phép cảnh sát sử dụng AI để giám sát các không gian công cộng trước Thế vận hội Paris 2024. Điều này đã khiến Pháp trở thành quốc gia đầu tiên tại châu Âu phê duyệt việc sử dụng AI cho mục đích này.

Trong ngữ cảnh Detroit, sau khi bị bắt nhầm, Woodruff đã đệ đơn kiện cơ quan cảnh sát khu vực. Albert Fox Cahn, đại diện của Dự án Giám sát Công nghệ phi lợi nhuận tại Mỹ, lên tiếng: “Giải pháp duy nhất để ngăn chặn các trường hợp bắt giữ sai lầm do nhận dạng là loại bỏ hoàn toàn công nghệ này. Thật đáng tiếc là có thể vẫn còn hàng chục người Mỹ bị buộc tội mà không bao giờ được phục hồi công lý. Các hệ thống AI dễ bị thiên vị chủng tộc và mắc lỗi như vậy không nên tồn tại trong một xã hội công bằng.”

Trong bối cảnh chính phủ trên khắp thế giới triển khai AI, tác động có hại của nó đã dần xuất hiện đối với người dân. Các hệ thống giám sát là một khía cạnh bất lợi của công nghệ mà ít được bàn luận. Ngay cả khi Đạo luật AI của Liên minh châu Âu (EU) đề xuất một số hạn chế đối với việc sử dụng AI có rủi ro cao như nhận dạng khuôn mặt, một số chuyên gia cho rằng sự phô trương quanh AI đã làm mất đi sự tập trung vào các vấn đề đạo đức và công bằng liên quan đến AI.

Sarah Chander, một cố vấn chính sách cao cấp tại tổ chức Vận động Quyền Kỹ thuật số châu Âu, nhận xét: “ChatGPT khiến nhiều người quên đi những tác động tiềm tàng của AI. Giống như các hệ thống dữ liệu lớn khác, công nghệ nhận dạng khuôn mặt chỉ hoạt động hiệu quả khi dữ liệu đầu vào được làm sạch. Tuy nhiên, hình ảnh để huấn luyện AI thường tập trung vào người da trắng, trong khi khả năng nhận diện người da đen rất kém, đặc biệt là phụ nữ trong độ tuổi 18-30.” Chander trích dẫn các nghiên cứu từ Viện Tiêu chuẩn và Công nghệ Quốc gia Mỹ, cho thấy trong 140 thuật toán nhận dạng khuôn mặt, tỷ lệ nhận dạng sai cao nhất thường áp dụng cho người Đông Phi, Đông Á và tỷ lệ nhận dạng đúng thấp nhất đối với người Đông Âu.

Ngay cả khi công nghệ hoạt động chính xác, nó vẫn không đảm bảo an toàn cho cộng đồng. Các nhà nghiên cứu và những người hoạt động trong lĩnh vực xã hội đã đề xuất rằng AI có thể tạo ra một mạng lưới giám sát rộng lớn và vô tận, xâm phạm sự riêng tư trong không gian công cộng. Các hệ thống này có khả năng xác định vị trí của bất kỳ người nào, ngay cả khi những địa điểm đó được bảo vệ bởi pháp luật về quyền riêng tư.

Các hệ thống AI nhận dạng khuôn mặt đang được triển khai ở nhiều nơi và có thể xâm phạm quyền riêng tư. Ảnh: Leszek/Adobe

Các hệ thống AI nhận dạng khuôn mặt đang được triển khai ở nhiều nơi và có khả năng xâm phạm quyền riêng tư. Ảnh: Leszek/Adobe

Mặc dù AI có thể góp phần vô tình đưa người vô tội vào tình thế tổn thương, chưa có biện pháp cụ thể để khắc phục vấn đề này. Các chuyên gia khuyến nghị người dùng hạn chế việc chia sẻ ảnh cá nhân trên mạng xã hội hoặc các nền tảng kỹ thuật số công cộng. Những hình ảnh này có thể được các công ty thu thập để đào tạo AI và xây dựng các công cụ nhận dạng khuôn mặt. Các hệ thống này sau đó có thể được sử dụng để buộc tội một ai đó trong tương lai. Trong tình huống đó, bất kỳ ai cũng có thể trở thành nạn nhân giống như Porcha Woodruff – người mang bầu tám tháng bị buộc tội bởi AI mà không có bằng chứng.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

error: Content is protected !!