OpenAI, Google cam kết đánh dấu nội dung AI để đảm bảo an toàn
WASHINGTON/NEW YORK, ngày 21 tháng 7 (Reuters) – Các công ty AI bao gồm OpenAI, Alphabet (GOOGL.O) và Meta Platforms (META.O) đã đưa ra các cam kết tự nguyện với Nhà Trắng để thực hiện các biện pháp như đánh dấu nội dung do AI tạo ra để giúp công nghệ trở nên an toàn hơn, chính quyền Biden cho biết.
Các công ty - bao gồm cả Anthropic, Inflection, Amazon.com (AMZN.O) và đối tác OpenAI của Microsoft (MSFT.O) - đã cam kết kiểm tra kỹ lưỡng các hệ thống trước khi phát hành và chia sẻ thông tin về cách giảm thiểu rủi ro và đầu tư vào an ninh mạng.
Động thái này được coi là một chiến thắng cho nỗ lực của chính quyền Biden trong việc điều chỉnh công nghệ đã trải qua sự bùng nổ về đầu tư và mức độ phổ biến của người tiêu dùng.
"Chúng tôi hoan nghênh sự lãnh đạo của Tổng thống trong việc tập hợp ngành công nghệ để đưa ra các bước cụ thể giúp làm cho AI an toàn hơn, bảo mật hơn và có lợi hơn cho công chúng", Microsoft cho biết trong một bài đăng trên blog vào thứ Sáu.
Kể từ khi AI tổng quát, sử dụng dữ liệu để tạo nội dung mới như văn xuôi nghe giống con người của ChatGPT, trở nên cực kỳ phổ biến trong năm nay, các nhà lập pháp trên khắp thế giới đã bắt đầu xem xét cách giảm thiểu mối nguy hiểm của công nghệ mới nổi đối với an ninh quốc gia và nền kinh tế.
Hoa Kỳ tụt hậu so với EU trong việc giải quyết các quy định về trí tuệ nhân tạo Vào tháng 6, các nhà lập pháp EU đã đồng ý với một bộ quy tắc dự thảo trong đó các hệ thống như ChatGPT sẽ phải tiết lộ nội dung do AI tạo ra, giúp phân biệt cái gọi là hình ảnh giả sâu với hình ảnh thật và đảm bảo các biện pháp bảo vệ chống lại nội dung bất hợp pháp.
Đa số Thượng viện Hoa Kỳ Chuck Schumer vào tháng 6 đã kêu gọi "luật pháp toàn diện" để thúc đẩy và đảm bảo các biện pháp bảo vệ trí tuệ nhân tạo.
Quốc hội đang xem xét một dự luật yêu cầu các quảng cáo chính trị tiết lộ liệu AI có được sử dụng để tạo hình ảnh hoặc nội dung khác hay không.
Tổng thống Joe Biden, người sẽ tiếp đón các giám đốc điều hành của bảy công ty tại Nhà Trắng vào thứ Sáu, cũng đang nghiên cứu phát triển một sắc lệnh hành pháp và luật lưỡng đảng về công nghệ AI.
Là một phần của nỗ lực, bảy công ty đã cam kết phát triển một hệ thống để "tạo hình mờ" cho tất cả các dạng nội dung, từ văn bản, hình ảnh, âm thanh đến video do AI tạo ra để người dùng biết khi nào công nghệ đã được sử dụng.
Hình mờ này, được nhúng vào nội dung theo cách kỹ thuật, có lẽ sẽ giúp người dùng dễ dàng phát hiện ra những hình ảnh hoặc âm thanh giả mạo sâu sắc, chẳng hạn như có thể cho thấy hành vi bạo lực chưa xảy ra, tạo ra một trò lừa đảo hay hơn hoặc bóp méo hình ảnh của một chính trị gia nhằm đưa người đó ra ánh sáng không mấy tốt đẹp.
Không rõ hình mờ sẽ hiển thị như thế nào trong việc chia sẻ thông tin.
Các công ty cũng cam kết tập trung vào việc bảo vệ quyền riêng tư của người dùng khi AI phát triển và đảm bảo rằng công nghệ này không thiên vị và không được sử dụng để phân biệt đối xử với các nhóm dễ bị tổn thương. Các cam kết khác bao gồm phát triển các giải pháp AI cho các vấn đề khoa học như nghiên cứu y tế và giảm thiểu biến đổi khí hậu.
Báo cáo của Diane Bartz ở Washington và Krystal Hu ở New York; Đóng góp của Jarrett Renshaw; Chỉnh sửa bởi Matthew Lewis và Marguerita Choy.