Ngày 22/7 vừa qua, trong một sự kiện quan trọng của Cục Dự trữ Liên bang Mỹ (FED) tập trung vào thảo luận về tác động kinh tế và xã hội của trí tuệ nhân tạo (AI), Sam Altman, CEO của OpenAI – công ty tiên phong trong việc phát triển ChatGPT, đã lên tiếng cảnh báo về những rủi ro tiềm ẩn mà thế giới có thể đối mặt khi AI phát triển nhanh chóng. Một trong những vấn đề đáng chú ý mà ông Altman nhấn mạnh là khả năng giả mạo giọng nói và hình ảnh bằng AI đang đạt đến mức độ tinh vi, có thể dễ dàng vượt qua nhiều hình thức xác thực hiện tại.
Ông Altman chỉ ra rằng vẫn còn nhiều tổ chức tài chính chấp nhận sử dụng giọng nói như một phương thức xác minh để thực hiện các giao dịch quan trọng như chuyển tiền. Theo ông, điều này là “thực sự nguy hiểm” bởi AI hiện đã có khả năng đánh bại gần như toàn bộ các phương thức xác thực khác, ngoại trừ mật khẩu. Điều này cho thấy một lỗ hổng bảo mật lớn mà các tổ chức tài chính và người dùng cần phải nhận thức rõ.
Không chỉ dừng lại ở đó, CEO của OpenAI còn bày tỏ sự lo ngại về viễn cảnh siêu AI có thể bị các thế lực thù địch lạm dụng trong bối cảnh phần lớn của thế giới vẫn chưa đủ khả năng phòng thủ. Ông sợ rằng một kẻ xấu có thể tạo ra siêu AI trước phần còn lại của thế giới và sử dụng nó để tấn công vào lưới điện hoặc chế tạo vũ khí sinh học. Đây là những rủi ro toàn cầu mà thế giới cần phải có biện pháp phòng ngừa và kiểm soát.
Một vấn đề khác mà ông Altman đề cập đến là việc thế giới chưa sẵn sàng đối mặt với những công nghệ mới như video và cuộc gọi AI giả mạo, vốn có thể không thể phân biệt được với người thật. Điều này đặt ra thách thức lớn về việc xác thực thông tin và duy trì lòng tin trong kỷ nguyên kỹ thuật số.
Trước những thách thức này, ông Altman cũng lên tiếng về việc tìm kiếm giải pháp kiểm soát AI và ủng hộ sáng kiến The Orb – một thiết bị giúp xác minh người dùng là con người thật trong môi trường kỹ thuật số. Ông hy vọng dự án này sẽ trở thành một nền tảng “chứng thực nhân dạng” quan trọng trong thế giới mà AI có thể dễ dàng giả mạo mọi thứ.
Đáng chú ý, Altman khẳng định OpenAI không phát triển các công cụ tạo video hay giọng nói giả mạo. Tuy nhiên, ông thừa nhận rằng các công nghệ đó đang tiến bộ rất nhanh, không chỉ tại Mỹ mà còn ở nhiều quốc gia khác. Ông lo lắng về một cuộc khủng hoảng toàn cầu về sự thật và lòng tin khi AI ngày càng phát triển.
Trước đó, đã có nhiều sự cố liên quan đến deepfake gây chấn động dư luận. Gần đây, các chuyên gia tại Việt Nam cũng đã lên tiếng trước một số trào lưu sử dụng deepfake để tạo nội dung câu like, câu view. Luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, cho biết tùy thuộc vào nội dung hình ảnh, video được dàn dựng, mục đích của người sản xuất/phát tán sẽ có các lỗi và quy định xử lý riêng. Điều này cho thấy sự cần thiết của việc quản lý và kiểm soát nội dung kỹ thuật số để đảm bảo an toàn và lành mạnh cho cộng đồng.