AI “Có thể” nguy hiểm – Joe Biden
Ngày 23/01/2024 - 05:01Ông so sánh những ứng dụng tiềm năng cũng như rủi ro của việc phát triển AI và cho rằng nó có thể nguy hiểm. Ông cũng cảnh báo các công ty phát triển AI phải đảm bảo an toàn cho các bot, công cụ và nền tảng AI trước khi triển khai. Những nhận xét này đã tạo thêm tác động toàn cầu đối với cuộc tranh luận ngày càng gia tăng về quy định về AI và các vấn đề an ninh mạng gần đây.
Joe Biden nói AI có thể nguy hiểm
Trong cuộc họp, Tổng thống Biden thừa nhận những lợi ích đáng kể của AI, như giải quyết các thách thức toàn cầu như bệnh tật và biến đổi khí hậu. Tuy nhiên, ông cũng nhấn mạnh tầm quan trọng của việc giải quyết các rủi ro tiềm ẩn đối với xã hội, nền kinh tế và an ninh quốc gia. Lời của ông ngụ ý rằng chúng ta phải cẩn thận với sự phát triển nhanh chóng của công nghệ này và đảm bảo an toàn cho chúng ta trước khi tiến lên.
Trách nhiệm của các công ty công nghệ
Trong bài phát biểu của mình, Tổng thống Biden cũng giải thích vai trò quan trọng của các công ty công nghệ trong việc phát triển và triển khai AI. Nhấn mạnh sự cần thiết của các công ty công nghệ trong việc đảm bảo an toàn cho sản phẩm của họ, ông nói, “Theo quan điểm của tôi, các công ty công nghệ có trách nhiệm đảm bảo sản phẩm của họ an toàn trước khi công khai”. Bình luận của ông được đưa ra vào thời điểm các nhà lãnh đạo toàn cầu đang quan tâm đến việc phân tích tác động của AI và các nhà lãnh đạo công nghệ đang tìm cách cân bằng giữa lợi ích và rủi ro tiềm ẩn liên quan đến công nghệ.
Tạm dừng phát triển AI?
Nhận xét của Biden lặp lại nhận xét của các chuyên gia trong ngành và chính phủ các nước khác. Gần đây, các nhà lãnh đạo công nghệ có ảnh hưởng như đồng sáng lập Apple Steve Wozniak và người sáng lập Tesla Elon Musk đã bày tỏ mối quan ngại của họ về sự an toàn của AI. Gần đây họ đã xuất bản một bức thư ngỏ kêu gọi tạm dừng phát triển AI, nêu rõ những rủi ro tiềm ẩn của nó đối với xã hội và nhân loại.
Ý cấm trò chuyệnGPT
Một trong những nền tảng AI mạnh mẽ nhất cho đến nay, tài khoản Chat GPT-4 , được phát triển bởi OpenAI có trụ sở tại California , đã chứng tỏ “hiệu suất ở cấp độ con người” trong nhiều lĩnh vực khác nhau. Điều này bao gồm việc ghi điểm trong top 10% số người nộp đơn hàng đầu trong kỳ thi luật sư, thể hiện khả năng vượt trội của hệ thống AI này. Bất chấp khả năng ấn tượng của AI, những lo ngại về quyền riêng tư và bảo mật dữ liệu đã khiến Ý trở thành quốc gia phương Tây đầu tiên cấm ChatGPT.
Quyết định này được đưa ra sau khi cơ quan giám sát bảo vệ dữ liệu của quốc gia tuyên bố rằng “không có cơ sở pháp lý” cho việc nền tảng này thu thập dữ liệu hàng loạt. Trước Ý, Trung Quốc, Nga, Triều Tiên, Iran và một số quốc gia khác đã cấm ChatGPT trong biên giới của họ do nhiều lo ngại.
Bảo mật dữ liệu bị xâm phạm
Tin tức gần đây về dữ liệu thanh toán bị xâm phạm liên quan đến ChatGPT đã tiếp tục thúc đẩy cuộc tranh luận xung quanh AI và những rủi ro tiềm ẩn của nó. Khi thế giới ngày càng phụ thuộc vào công nghệ, nhu cầu bảo vệ thông tin nhạy cảm và đảm bảo an ninh dữ liệu chưa bao giờ quan trọng hơn thế. Các nhà phát triển, chính phủ và cơ quan quản lý phải hợp tác chặt chẽ để thực hiện điều này thông qua luật pháp nghiêm ngặt và kiểm toán thường xuyên.
Lời nói của chúng tôi
Khi trí tuệ nhân tạo tiếp tục tạo nên làn sóng trên toàn cầu, những lo ngại mà Tổng thống Biden và các nhà lãnh đạo công nghệ nêu ra báo hiệu một bước ngoặt trong cuộc trò chuyện xung quanh quy định và sự phát triển của nó. Với lệnh cấm gần đây ở Ý và mối lo ngại ngày càng tăng về bảo mật dữ liệu, việc thúc đẩy các biện pháp an toàn và trách nhiệm cao hơn đã trở thành tâm điểm trong cuộc tranh luận về AI. Chúng ta sẽ phải chờ xem liệu các quốc gia khác có noi gương Ý và áp đặt các hạn chế của riêng họ đối với AI hay không, nhằm đảm bảo một môi trường công nghệ an toàn hơn. Trong khi đó, như Joe Biden đã nói, chúng ta phải tiến hành một cách thận trọng để đảm bảo việc phát triển AI không trở nên nguy hiểm cho nhân loại.
XEM THÊM: Tài khoản ChatGPT-4 mở ra khả năng vô tận cho trí tuệ nhân tạo.
Bài viết liên quan
26/01/2024
24/01/2024
23/01/2024
24/02/2024
19/01/2024
22/01/2024