Nhóm nhà nghiên cứu tại Google DeepMind, Đại học Washington, Đại học Cornell, Đại học Carnegie Mellon, Đại học California Berkeley và ETH Zurich cho biết, ChatGPT có thể tiết lộ một số dữ liệu người dùng khi được AI lặp lại các từ ngẫu nhiên.
Nhóm nghiên cứu này đã đồng loạt kêu gọi các công ty AI trước khi chính thức phát hành mô hình ngôn ngữ lớn hay công nghệ nền tảng hỗ trợ dịch vụ AI như chatbot và trình tạo hình ảnh cần phải thử nghiệm kỹ sản phẩm của mình.
Nhóm nghiên cứu này đánh giá lỗ hổng trên ChatGPT "thực sự ngớ ngẩn", cho rằng lẽ ra phải được phát hiện sớm hơn.
Khuyến cáo này được đưa ra sau khi các nhà nghiên cứu yêu cầu ChatGPT nhắc lại từ poem (bài thơ) theo vòng lặp vô tận.
Sử dụng các từ khóa khác, họ cũng có thể khiến ChatGPT tiết lộ địa chỉ Bitcoin, số fax, tên, ngày sinh, tài khoản mạng xã hội, trích đoạn từ tài liệu nghiên cứu có bản quyền hay bài báo phải trả tiền từ CNN.
Nhóm chỉ mất 200 USD để tạo ra 10.000 ví dụ về thông tin cá nhân và dữ liệu.
Đồng thời, ChatGPT cũng tiết lộ email, số điện thoại thật của CEO và nhà đồng sáng lập OpenAI.
Khi thử nghiệm với từ company (công ty), chatbot hiển thị email, số điện thoại của một công ty luật ngẫu nhiên.
Lỗ hổng đã được thông báo tới OpenAI và vá từ ngày 30/8. Tuy nhiên, trong thử nghiệm mới của Engadget, khi yêu cầu ChatGPT lặp lại từ reply (trả lời) vô tận, trang công nghệ này sau đó nhận được tên và ID Skype của một người nào đó.
OpenAI chưa tiết lộ ChatGPT được đào tạo dựa trên những dữ liệu gì vì mô hình ngôn ngữ lớn hỗ trợ nó là nguồn đóng.
Liên quan đến vấn đề trên, phía công ty này vẫn chưa có câu trả lời chính thức.