Khi được phát hành chính thức vào cuối năm ngoái, ChatGPT lập tức trở thành cơn sốt và được ngợi ca là một trong những tiến bộ công nghệ ấn tượng nhất năm.
Chatbot trí tuệ nhân tạo (AI) này có thể tạo văn bản về hầu hết mọi chủ đề, từ viết thơ theo thể thơ sonnet của Shakespeare đến diễn giải các định lý toán học phức tạp bằng ngôn ngữ mà một đứa trẻ 5 tuổi có thể hiểu được.
Trong vòng một tuần, ChatGPT đã có hơn một triệu người dùng. Theo thống kê, ChatGPT vượt mốc 10 triệu người dùng chỉ sau 40 ngày, vượt xa tốc độ tăng trưởng ban đầu các mạng xã hội như Instagram (mất 355 ngày để đạt được 10 triệu lượt đăng ký).
OpenAI, công ty nghiên cứu phát triển phần mềm đã sản xuất ra ChatGPT, đang thu hút nguồn vốn lớn từ các nhà đầu tư, trong đó có 10 tỷ đô từ Microsoft. Có lẽ sẽ không bất ngờ khi một ngày không xa, OpenAI lọt top những công ty AI có giá trị nhất thế giới.
Nỗ lực ngăn chặn nội dung độc hại
ChatGPT hoạt động dựa trên việc quét các văn bản trên internet và cho ra kết quả dựa trên thời gian thực. Chỉ cần bạn đặt câu hỏi thì công cụ sẽ cho ra kết quả ngay lập tức.
Nội dung ChatGPT đưa ra đôi khi rất thông minh, khéo léo, thậm chí công cụ này còn biết thay đổi câu trả lời dựa theo gợi ý người dùng, nhưng đôi khi cũng sai lệch hoàn toàn, mặc dù cách diễn giải nghe có vẻ thuyết phục. Chính vì đang trong giai đoạn hoàn thiện mà kết quả ChatGPT trả về ít nhiều sẽ vấp phải tranh cãi.
Người tiền nhiệm của ChatGPT, GPT-3, cũng sở hữu khả năng xâu chuỗi, tổng hợp thông tin ấn tượng. Nhưng vì lượng dữ liệu trên internet mà GPT-3 nhập vào là rất lớn nên người điều hành không thể kiểm soát hết các thông tin sai lệch, độc hại. Ứng dụng rất khó bán vì có xu hướng đưa ra nội dung bạo lực, phân biệt giới tính và sắc tộc. Người ta ước tính dù có đến hàng trăm người cũng phải mất cả thập kỷ để rà soát bộ dữ liệu khổng lồ bằng cách thủ công.
Từ đó mà phiên bản tiên tiến hơn của GPT-3 là ChatGPT ra đời, với khả năng tự đào thải thông tin độc hại tốt hơn. Nhưng không vì thế mà ChatGPT “sạch sẽ” hoàn toàn, bởi nội dung độc hại liên quan đến phân biệt chủng tộc, kỳ thị phụ nữ, thù địch, bạo lực, tội phạm, chửi thề vẫn xuất hiện. Giám đốc điều hành OpenAI là Sam Altman thừa nhận, ChatGPT đang trong hành trình phổ cập với cộng đồng, giống bất kỳ AI nào khác, nó gây tranh cãi và không loại trừ nguy cơ bị lạm dụng.
Để nội dung thiếu lành mạnh được giảm thiểu đến mức tối đa, OpenAI tiếp tục thuê nhiều nhân viên kiểm duyệt nội dung.
OpenAI hợp tác với công ty Sama, một tổ chức có trụ sở tại San Francisco. Công ty này thuê các nhân viên kiểm duyệt nội dung đến từ Kenya, Uganda và Ấn Độ. Sama tự quảng bá mình là một công ty AI “có đạo đức” và đã giúp hơn 50.000 người thoát nghèo, thế nhưng tạp chí Time sau khi đã xém xét tài liệu nội bộ của Sama và OpenAI - bao gồm xem xét phiếu lương và thực hiện phỏng vấn giấu tên, đã kết luận nhân viên lọc dữ liệu chỉ được trả từ 1,32 đô đến 2 đô mỗi giờ tùy vào thâm niên và hiệu suất, mức cao nhất là 3,74 đô la mỗi giờ sau thuế.
Mặc dù phải tiếp xúc nội dung độc hại về bạo lực, tình dục, tự hại bản thân hằng ngày, nhưng họ chỉ được trả đồng lương rẻ mạt. Câu chuyện về những người công nhân giấu mặt của ChatGPT đã hé lộ góc khuất ít được nghe kể về ngành công nghiệp AI.
Theo Partnership on AI, một tổ chức về AI mà OpenAI trực thuộc, nguồn lực “con người” trở nên mờ nhạt một phần vì người ta muốn đẩy mạnh và tôn vinh sự độc lập của trí tuệ nhân tạo.
Hợp đồng của Sama và OpenAI
Trong nền kinh tế đang chậm lại trước bối cảnh suy thoái, các nhà đầu tư đã rót hàng tỷ đô vào “AI thế hệ mới”, với niềm tin lạc quan rằng văn bản, hình ảnh, video và âm thanh do máy tính tạo ra sẽ thay đổi cách thức kinh doanh của vô số ngành công nghiệp và các lĩnh vực quan trọng như nghệ thuật sáng tạo, luật pháp, lập trình hay công nghệ máy tính.
Nhưng trái lại với vẻ hào nhoáng và tương lai đầy hứa hẹn đó, thì có một nhóm người ở nam bán cầu đang chật vật để đóng góp cho cả một đế chế trị giá hàng tỷ đô nhưng chỉ nhận lại đồng lương tối thiểu.
Theo hợp đồng làm việc giữa OpenAI và Sama thì OpenAI sẽ trả mức lương 12,5 đô la mỗi giờ cho Sama, gấp 6 đến 9 lần số tiền mà nhân viên Sama thực nhận. Phía người phát ngôn giải thích cho sự chênh lệch: “Mức giá 12,50 đô la cho dự án bao gồm tất cả các chi phí, như chi phí cơ sở hạ tầng, tiền lương và lợi ích cho các cộng sự cũng như các nhà phân tích”, chính vì chia ra như vậy mà số lương nhân viên nhận về sẽ ít hơn rất nhiều.
Về quá trình làm việc, khoảng ba chục nhân viên được chia thành ba đội, mỗi đội tập trung phân chia các dạng nội dung khác nhau. Ba nhân viên được phỏng vấn nói rằng họ phải đọc và phân loại từ 150 đến 250 đoạn văn bản trong mỗi ca làm việc kéo dài 9 giờ. Tất cả đều gặp tổn thương tinh thần vì công việc. Dù đã được tư vấn sức khỏe, nhưng theo họ những buổi trị liệu này không thật sự hữu ích.
Một nhân viên tại Sama được giao nhiệm vụ đọc và phân loại văn bản cho OpenAI đã nói với tạp chí TIME rằng anh thường xuyên gặp ảo giác khi đọc những nội dung quan hệ tình dục lệch lạc, trái đạo đức. “Bạn đọc về những dạng nội dung như vậy suốt cả tuần, rồi đến cuối tuần, tâm trí của bạn đã bị bào mòn”, anh cho biết.
Vì khối lượng công việc quá kinh khủng và có thể làm tổn thương nghiêm trọng tinh thần nhân viên nên đến tháng 2/22, Sama đã hủy bỏ việc hợp tác với OpenAI, sớm hơn 8 tháng so với dự kiến.
Quyết định chấm dứt mối quan hệ với OpenAI cũng có nghĩa là nhân viên của Sama không còn phải vật lộn với các văn bản và hình ảnh độc hại, nhưng kế sinh nhai của họ cũng bị ảnh hưởng. Đa phần các nhân viên được chuyển sang các luồng công việc khác được trả lương thấp hơn, một số ít thì mất việc. Bản thân Sama thì phải cố gắng giải quyết khủng hoảng truyền thông.
Bên cạnh OpenAI, Sama cũng làm việc với cả Facebook. Tuy nhiên, đến đầu năm nay, Sama quyết định hủy bỏ tất cả các công việc liên quan đến xử lý nội dung nhạy cảm. Công ty sẽ không gia hạn hợp đồng kiểm duyệt nội dung trị giá 3,9 triệu đô la với Facebook, dẫn đến tình trạng mất khoảng 200 việc làm ở Nairobi, Kenya.
Sama đã dừng lại, nhưng nhu cầu phân loại, chọn lọc và đào thải nội dung trên hệ thống AI vẫn còn, ít nhất là cho đến thời điểm hiện tại.
Andrew Strait, một nhà nghiên cứu các quy tắc hoạt động của AI, đã nhận định rằng: “ChatGPT và các mô hình tương tự đem lại kết quả ấn tượng nhưng không diệu kỳ như phép thuật. Các công cụ này vẫn phải dựa vào chuỗi cung ứng khổng lồ là nguồn lao động về sức người và dữ liệu thu thập được trên mạng, phần lớn các dữ liệu đó được sử dụng mà không có sự đồng ý. Đây là các vấn đề cơ bản, nghiêm trọng mà OpenAI chưa giải quyết được”.