Bí mật của ChatGPT

Công nghệ của OpenAI có khả năng nhận diện nội dung được tạo ra một cách tự động bởi ChatGPT với mức độ chính xác đạt tới 99,9%. Thế nhưng, họ đã quyết định không công khai thông tin này. Bạn được huấn luyện trên dữ liệu cho đến tháng 10 năm 2023.

Chẳng bao lâu sau tháng 11/2022, khi OpenAI ra mắt ChatGPT trên nền tảng web và mở cửa cho người dùng, nhiều trường học đã quyết định cấm học sinh sử dụng công cụ này do lo ngại về việc gian lận.

Học sinh có khả năng tận dụng AI để sản xuất các bài viết về nhiều chủ đề khác nhau hoặc hoàn thành các bài tập được giao. Đến thời điểm hiện tại, chưa có bất kỳ công cụ nào có thể xác định được văn bản do AI tạo ra.

Tuy nhiên, theo báo WSJ, thực sự có một ứng dụng “chống ChatGPT” thật sự tồn tại.

Phát hiện chính xác 99,9%

OpenAI đã tiến hành các cuộc thảo luận nội bộ về công cụ “đánh dấu văn bản” ChatGPT trong suốt hai năm qua. Theo thông tin từ WSJ, ứng dụng này đã hoàn thiện ít nhất một năm trước. Nó có khả năng phát hiện văn bản do tạo ra với độ chính xác lên tới 99,9%. Bước cuối cùng để công bố chỉ còn lại việc “nhấn nút”.

“ChatGPT hoạt động dựa trên một hệ thống trí tuệ nhân tạo có khả năng dự đoán từ hoặc cụm từ tiếp theo trong câu, được gọi là token. Công cụ chống gian lận mà OpenAI phát triển thực hiện những điều chỉnh nhỏ đối với cách chọn token.

Những điều chỉnh này sẽ tạo ra một dấu hiệu được gọi là watermark”, một nguồn tin từ WSJ, người đã tiếp cận tài liệu mô tả công cụ chống ChatGPT, tiết lộ.

Các watermark này không thể nhìn thấy bằng mắt thường, nhưng công nghệ phát hiện của OpenAI có thể nhận diện chúng. Công cụ này thậm chí còn cung cấp tỷ lệ phần trăm của toàn bộ hoặc một phần tài liệu được tạo ra bởi ChatGPT.

Nhiều Trường Học Cấm Cửa Chatgpt Vì Lo Ngại Gian Lận. Ảnh Istock
Nhiều trường học cấm cửa ChatGPT vì lo ngại gian lận. Ảnh: iStock

“Khả năng Mặt Trời bốc hơi vào ngày mai có thể cao hơn so với việc một bài luận do AI tạo ra không để lại dấu hiệu nào,” John Thickstun, một nhà nghiên cứu tại Stanford và là thành viên của nhóm phát triển phương pháp xác định văn bản AI, cho biết.

Tuy nhiên, một số nhân viên của OpenAI cho rằng phương pháp này có thể bị lừa đảo bằng những kỹ thuật đơn giản như việc dịch văn bản bằng Google sang một ngôn ngữ khác rồi quay trở lại hoặc yêu cầu ChatGPT thêm biểu tượng cảm xúc vào văn bản rồi xóa chúng thủ công.

Ai được dùng công cụ phát hiện ChatGPT?

Trong nội bộ của OpenAI, đã có một cuộc thảo luận sôi nổi về việc xác định đối tượng nào sẽ được cung cấp công cụ phát hiện văn bản do ChatGPT tạo ra. Đa số mọi người đều cho rằng đây là một quyết định khó khăn. Nếu số lượng người dùng quá ít, công cụ này sẽ không mang lại lợi ích thực tiễn. Ngược lại, nếu nhiều người có quyền truy cập, những kẻ xấu có thể tìm cách bóc tách kỹ thuật đánh dấu watermark để qua mặt hệ thống.

OpenAI đang xem xét khả năng cung cấp công cụ này trực tiếp cho các tổ chức giáo dục hoặc các công ty bên thứ ba nhằm hỗ trợ các trường học trong việc nhận diện nội dung được viết bởi AI. Google đang phát triển một công cụ có tên SynthID, giúp phát hiện văn bản do Gemini AI sản xuất. Hiện tại, SynthID vẫn đang trong giai đoạn thử nghiệm và chưa được triển khai rộng rãi.

OpenAI cũng sở hữu một công cụ để xác định liệu hình ảnh có phải được tạo ra bởi ứng dụng chuyển đổi văn bản thành hình ảnh DALL-E 3 hay không. Công ty ưu tiên việc chèn watermark vào âm thanh và hình ảnh hơn là văn bản do những tác động tiêu cực lớn hơn, đặc biệt trong bối cảnh năm bầu cử đang diễn ra ở Mỹ.

Openai Cũng Phát Triển Công Cụ 'đóng Dấu' ảnh Tạo Bởi Dall E 3. Ảnh Zdnet
OpenAI cũng phát triển công cụ ‘đóng dấu’ ảnh tạo bởi DALL-E 3. Ảnh Zdnet

Vào tháng 1 năm 2023, OpenAI đã công bố một thuật toán nhằm phát hiện văn bản được sản xuất bởi một số mô hình trí tuệ nhân tạo, bao gồm cả mô hình của họ. Tuy nhiên, hiệu quả của thuật toán này chỉ đạt khoảng 26%. Sau 7 tháng, OpenAI đã quyết định ngừng sử dụng nó.

Ngoài ra, còn có các công cụ khác do một số tổ chức và nhà nghiên cứu độc lập phát triển để xác định văn bản do AI tạo ra, mà nhiều giáo viên đang áp dụng. Thế nhưng, đôi khi những công cụ này không thể phát hiện chính xác văn bản từ các mô hình ngôn ngữ tiên tiến và có khả năng đưa ra kết quả sai lệch.

Mối đe doạ với chính ChatGPT

OpenAI cho rằng việc phát hành công cụ có khả năng nhận diện văn bản do ChatGPT tạo ra sẽ là một quyết định “tự gây hại”. Một khảo sát chỉ ra rằng gần 1/3 số người dùng có thể từ bỏ chatbot này nếu biện pháp chống gian lận được áp dụng.

Cụ thể, OpenAI ủy quyền thực hiện một nghiên cứu vào tháng 4/2023. Kết quả cho thấy sự ủng hộ trên toàn thế giới đối với một công cụ có thể phát hiện văn bản ChatGPT. Trung bình cứ 4 người được hỏi thì 3 người muốn có, chỉ một người không. Tuy nhiên, một nghiên cứu khác của OpenAI trong cùng thời điểm lại cho thấy 69% người dùng ChatGPT lo ngại rằng công nghệ phát hiện gian lận có thể dẫn đến những cáo buộc sai lầm.

Điều đáng chú ý hơn nữa là 30% số người tham gia khảo sát cho biết họ sẽ sử dụng ChatGPT ít hơn nếu công ty thực hiện hệ thống đóng dấu văn bản mà các chatbot AI khác không có. Kể từ đó, nhóm phát triển tại OpenAI đã có những cuộc thảo luận về lợi ích của việc cung cấp công cụ chống gian lận cho cộng đồng. Vào đầu tháng 6, các thành viên cấp cao và nhà nghiên cứu của OpenAI đã tiếp tục bàn về dự án này. Nhóm đã đồng thuận rằng công nghệ watermark hoạt động hiệu quả, nhưng kết quả của cuộc khảo sát từ năm trước vẫn là điều cần cân nhắc kỹ lưỡng.

Hiện tại, OpenAI đang xem xét những phương án tiếp cận khác ít gây tranh cãi hơn. Tuy nhiên, hướng đi cụ thể vẫn chưa được xác định rõ ràng.

Viết một bình luận