Điều tra phơi bày mặt tối của ngành công nghiệp chatbot AI

Một cuộc điều tra của Time đã phơi bày mặt tối của ngành công nghiệp chatbot AI, nêu bật cách ít nhất một công ty khởi nghiệp đã sử dụng các phương pháp đáng ngờ để cải thiện công nghệ của mình.

Được xuất bản vào thứ Tư, báo cáo của Time tập trung vào OpenAI do Microsoft hậu thuẫn và chatbot ChatGPT của nó, một công nghệ gần đây đã thu hút được nhiều sự chú ý nhờ khả năng vượt trội trong việc tạo ra văn bản đàm thoại rất tự nhiên.

Cuộc thăm dò của Time cho thấy để đào tạo công nghệ AI, OpenAI đã sử dụng dịch vụ của một nhóm ở Kenya để nghiên cứu văn bản bao gồm các chủ đề đáng lo ngại như lạm dụng tình dục trẻ em, thú tính, giết người, tự tử, tra tấn, tự làm hại bản thân và loạn luân. Và vì những nỗ lực của họ để gắn nhãn nội dung ghê tởm, nhiều người trong nhóm đã nhận được ít hơn 2 đô la một giờ.

Công việc bắt đầu vào tháng 11 năm 2021 là cần thiết vì tiền thân của ChatGPT, GPT-3, mặc dù rất ấn tượng nhưng lại có xu hướng tạo ra nội dung xúc phạm vì tập dữ liệu đào tạo của nó đã được biên soạn bằng cách thu thập hàng trăm tỷ từ từ mọi góc của trang web .

Nhóm có trụ sở tại Kenya, do công ty Sama ở San Francisco điều hành, sẽ gắn nhãn nội dung phản cảm để giúp huấn luyện chatbot của OpenAI, từ đó cải thiện tập dữ liệu của nó và giảm khả năng tạo ra bất kỳ kết quả phản cảm nào.

Time cho biết cả 4 nhân viên của Sama mà họ phỏng vấn đều mô tả họ bị tổn thương tinh thần vì công việc. Sama cung cấp các buổi tư vấn, nhưng các nhân viên nói rằng chúng không hiệu quả và hiếm khi diễn ra do yêu cầu của công việc, mặc dù người phát ngôn của Sama nói với Time rằng các nhà trị liệu có thể tiếp cận bất cứ lúc nào.

Một công nhân nói với Time rằng việc đọc tài liệu gây sốc đôi khi giống như “tra tấn”, nói thêm rằng họ cảm thấy “bực bội” ​​vào cuối tuần.

Vào tháng 2 năm 2022, mọi thứ thậm chí còn trở nên đen tối hơn đối với Sama khi OpenAI triển khai một dự án riêng không liên quan đến ChatGPT, yêu cầu nhóm Kenya của họ thu thập các hình ảnh có tính chất tình dục và bạo lực. OpenAI nói với Time rằng công việc này là cần thiết để làm cho các công cụ AI của họ an toàn hơn.

Trong vòng vài tuần kể từ khi dự án dựa trên hình ảnh này bắt đầu, bản chất đáng báo động của các nhiệm vụ đã khiến Sama hủy bỏ tất cả các hợp đồng với OpenAI, mặc dù Time cho rằng nó cũng có thể được thúc đẩy bởi sự cố PR từ một báo cáo về chủ đề tương tự mà nó xuất bản về Facebook vào khoảng thời gian đó.

Open AI nói với Time rằng đã có “sự hiểu lầm” về bản chất của hình ảnh mà nó yêu cầu Sama thu thập, nhấn mạnh rằng nó không yêu cầu hình ảnh cực đoan nhất và chưa xem bất kỳ hình ảnh nào mà nó đã được gửi.

Nhưng việc chấm dứt hợp đồng đã ảnh hưởng đến sinh kế của người lao động, với một số người trong nhóm ở Kenya mất việc làm, trong khi những người khác bị chuyển sang các dự án được trả lương thấp hơn.

Cuộc điều tra của Time đưa ra một cái nhìn không thoải mái nhưng quan trọng về loại công việc liên quan đến các chatbot do AI cung cấp đang khiến ngành công nghệ rất phấn khích gần đây.

Mặc dù có khả năng biến đổi và có khả năng mang lại lợi ích, nhưng công nghệ này rõ ràng phải trả giá bằng con người và đặt ra hàng loạt câu hỏi về đạo đức về cách các công ty phát triển công nghệ mới của họ và rộng hơn là về cách các quốc gia giàu có tiếp tục thực hiện các nhiệm vụ ít mong muốn hơn cho các quốc gia nghèo hơn cho một chi tiêu tài chính thấp hơn.

Các công ty khởi nghiệp đằng sau công nghệ sẽ được giám sát tập trung hơn trong những tháng và năm tới, vì vậy họ sẽ làm tốt việc xem xét và cải thiện các hoạt động của mình ngay khi có cơ hội.

Digital Trends đã liên hệ với OpenAI để nhận xét về báo cáo của Time và chúng tôi sẽ cập nhật bài viết này khi nhận được phản hồi.

Đề xuất của biên tập viên






Call Now Button