OpenAI phải đối mặt với vụ kiện phỉ báng khi ChatGPT tạo ra những cáo buộc sai trái đối với máy chủ đài phát thanh
Ngày 19/01/2024 - 05:01Mark Walters, một người dẫn chương trình phát thanh ở Georgia, đã đệ đơn kiện OpenAI sau khi ChatGPT cáo buộc sai sự thật rằng anh ta lừa đảo và biển thủ tiền từ một tổ chức phi lợi nhuận. Vụ việc làm dấy lên mối lo ngại về độ tin cậy của thông tin do AI tạo ra và tác hại tiềm ẩn mà nó có thể gây ra. Vụ kiện mang tính đột phá này đã thu hút sự chú ý đáng kể do số lượng thông tin sai lệch ngày càng tăng và những tác động của nó đối với trách nhiệm pháp lý.
Các cáo buộc: Tuyên bố bịa đặt của ChatGPT chống lại Mark Walters
Trong vụ kiện phỉ báng này, Mark Walters cáo buộc OpenAI đã tạo ra những cáo buộc sai trái chống lại anh ta thông qua ChatGPT. Người dẫn chương trình phát thanh tuyên bố rằng một nhà báo tên là Fred Riehl đã yêu cầu ChatGPT tóm tắt một vụ kiện có thật tại tòa án liên bang bằng cách cung cấp liên kết tới bản PDF trực tuyến. Tuy nhiên, ChatGPT đã tạo ra một bản tóm tắt sai sự thật chi tiết và thuyết phục, trong đó có một số điểm không chính xác, dẫn đến bôi nhọ Mark Walters.
Mối lo ngại ngày càng tăng về thông tin sai lệch do AI tạo ra
Thông tin sai lệch do các hệ thống AI như ChatGPT tạo ra đã trở thành một vấn đề cấp bách. Những hệ thống này thiếu một phương pháp đáng tin cậy để phân biệt sự thật với hư cấu. Họ thường đưa ra những ngày tháng, sự kiện và số liệu bịa đặt khi được yêu cầu cung cấp thông tin, đặc biệt nếu được nhắc xác nhận điều gì đó đã được đề xuất. Mặc dù những điều bịa đặt này chủ yếu gây hiểu lầm hoặc lãng phí thời gian của người dùng, nhưng có những trường hợp những sai sót đó đã gây ra tác hại.
Hậu quả trong thế giới thực: Thông tin sai lệch dẫn đến tổn hại
Sự xuất hiện của các trường hợp thông tin sai lệch do AI tạo ra gây hại đang làm dấy lên mối lo ngại nghiêm trọng. Chẳng hạn, một giáo sư đã đe dọa sẽ đánh trượt sinh viên của mình sau khi ChatGPT tuyên bố sai rằng họ đã sử dụng AI để viết bài luận. Ngoài ra, một luật sư có thể phải đối mặt với các biện pháp trừng phạt sau khi sử dụng tài khoản ChatGPT Plus để nghiên cứu các vụ việc pháp lý không tồn tại. Những sự cố này nêu bật những rủi ro liên quan đến việc dựa vào nội dung do AI tạo ra.
Trách nhiệm và Tuyên bố miễn trừ trách nhiệm của OpenAI
OpenAI bao gồm một tuyên bố từ chối trách nhiệm nhỏ trên trang chủ của ChatGPT, thừa nhận rằng hệ thống “đôi khi có thể tạo ra thông tin không chính xác”. Tuy nhiên, công ty cũng quảng bá ChatGPT như một nguồn dữ liệu đáng tin cậy, khuyến khích người dùng “nhận câu trả lời” và “học hỏi điều gì đó mới”. Giám đốc điều hành của OpenAI, Sam Altman, thích học từ ChatGPT hơn sách. Điều này đặt ra câu hỏi về trách nhiệm của công ty trong việc đảm bảo tính chính xác của thông tin được tạo ra.
Ưu tiên pháp lý và trách nhiệm pháp lý của AI
Việc xác định trách nhiệm pháp lý của các công ty đối với thông tin sai lệch hoặc phỉ báng do hệ thống AI tạo ra là một thách thức. Các công ty Internet theo truyền thống được bảo vệ bởi Mục 230 ở Hoa Kỳ, bảo vệ họ khỏi trách nhiệm pháp lý đối với nội dung do bên thứ ba tạo được lưu trữ trên nền tảng của họ. Tuy nhiên, liệu các biện pháp bảo vệ này có mở rộng sang các hệ thống AI tạo ra thông tin độc lập hay không, bao gồm cả dữ liệu sai lệch, vẫn chưa chắc chắn.
Khung pháp lý thử nghiệm: Vụ kiện phỉ báng của Walters
Vụ kiện phỉ báng của Mark Walters được đệ trình ở Georgia có khả năng thách thức khuôn khổ pháp lý hiện có. Theo vụ việc, nhà báo Fred Riehl đã yêu cầu tài khoản ChatGPT 4 tóm tắt một bản PDF và ChatGPT đã trả lời bằng một bản tóm tắt sai nhưng thuyết phục. Mặc dù Riehl không công bố thông tin sai lệch nhưng các chi tiết đã được kiểm tra với một bên khác, dẫn đến việc Walters phát hiện ra thông tin sai lệch. Vụ kiện đặt câu hỏi về trách nhiệm giải trình của OpenAI đối với những sự cố như vậy.
Những hạn chế của ChatGPT và sự định hướng sai của người dùng
Đáng chú ý, tài khoản gpt 4 dù tuân thủ yêu cầu của Riehl nhưng không thể truy cập dữ liệu bên ngoài nếu không có plug-in bổ sung. Hạn chế này làm dấy lên mối lo ngại về khả năng đánh lừa người dùng. Mặc dù ChatGPT không thể cảnh báo người dùng về thực tế này nhưng nó đã phản hồi khác khi được kiểm tra sau đó, nêu rõ rằng nó không thể truy cập các tệp PDF cụ thể hoặc tài liệu bên ngoài.
Tính khả thi về mặt pháp lý và những thách thức của vụ kiện
Eugene Volokh, giáo sư luật chuyên về trách nhiệm pháp lý của hệ thống AI, tin rằng các tuyên bố phỉ báng chống lại các công ty AI về mặt lý thuyết là có hiệu lực về mặt pháp lý. Tuy nhiên, ông cho rằng vụ kiện của Walters có thể gặp nhiều thách thức. Volokh lưu ý rằng Walters đã không thông báo cho OpenAI về những tuyên bố sai lệch, tước đi cơ hội khắc phục tình hình của họ. Hơn nữa, không có bằng chứng nào về thiệt hại thực tế do sản phẩm của ChatGPT gây ra.
Lời nói của chúng tôi
OpenAI vướng vào một vụ kiện phỉ báng chấn động khi ChatGPT đưa ra những cáo buộc sai trái chống lại người dẫn chương trình phát thanh Mark Walters. Trường hợp này nêu bật mối lo ngại ngày càng tăng xung quanh thông tin sai lệch do AI tạo ra và những hậu quả tiềm ẩn của nó. Khi quyền ưu tiên pháp lý và trách nhiệm giải trình trong các hệ thống AI bị nghi ngờ, kết quả của vụ kiện này có thể định hình bối cảnh tương lai của nội dung do AI tạo ra và trách nhiệm của các công ty như OpenAI.
Bài viết liên quan
19/01/2024
21/01/2024
06/02/2024
21/01/2024
30/01/2024
05/02/2024