Ảnh minh họa. (Nguồn: Barco/Vietnam+)
Cùng với sự bùng nổ mạnh mẽ của AI thời gian qua, các nước đang ngày càng chú trọng cân bằng giữa quản lý rủi ro và thúc đẩy sáng tạo trong lĩnh vực này. Mới đây, Ủy ban Thị trường Nội bộ và Ủy ban Quyền tự do Dân sự thuộc Nghị viện châu Âu (EP) đã bỏ phiếu thông qua dự luật về AI của Liên minh châu Âu (EU), đánh dấu bước tiến mới trong nỗ lực xây dựng cơ sở pháp lý nhằm kiểm soát hoạt động phát triển AI.
Dự luật yêu cầu các đơn vị phát triển AI đánh giá mức độ an toàn, đưa ra giải pháp quản lý dữ liệu và giảm thiểu rủi ro trước khi đưa sản phẩm ra thị trường. Với các sản phẩm được tạo ra bằng ứng dụng AI tạo sinh như ChatGPT của OpenAI, nhà sản xuất phải nêu rõ cảnh báo đây là sản phẩm do máy móc tạo ra. Ngoài ra, dự luật bổ sung điều khoản cấm sử dụng công nghệ nhận diện khuôn mặt ở nơi công cộng, cũng như công cụ sử dụng thuật toán dự báo hành vi tội phạm… Dự luật của EU phân loại các công cụ AI thành bốn nhóm dựa trên mức độ rủi ro, từ thấp đến không thể chấp nhận. Những ứng dụng có mức rủi ro cao sẽ đối mặt quy định khắt khe hơn.
Cùng với sự bùng nổ mạnh mẽ của AI thời gian qua, các nước đang ngày càng chú trọng cân bằng giữa quản lý rủi ro và thúc đẩy sáng tạo trong lĩnh vực này.
EP khẳng định, dự luật nêu trên nhằm bảo đảm các hệ thống AI được giám sát, an toàn, minh bạch, không phân biệt đối xử và thân thiện với môi trường. Trong khi đó, giới phân tích nhận định, đây là bước tiến quan trọng, mở đường cho sự ra đời của văn bản pháp lý toàn diện đầu tiên trên thế giới về AI. EP dự kiến biểu quyết thông qua dự luật vào giữa tháng 6 tới, trước khi thống nhất trong các cuộc đàm phán với Ủy ban châu Âu (EC) và chính phủ các nước thành viên.
Bên cạnh EU, sự bùng nổ mạnh mẽ của AI cũng buộc chính phủ nhiều nước hành động nhằm hạn chế những rủi ro tiềm ẩn, song vẫn bắt kịp sự phát triển nhanh chóng của công nghệ tiên tiến này. Nhà trắng mới đây tuyên bố sẽ đầu tư 140 triệu USD để lập bảy trung tâm nghiên cứu và công bố hướng dẫn mới về sử dụng AI. Đây là một trong những nỗ lực của chính quyền Tổng thống Joe Biden để ngăn chặn rủi ro bảo mật liên quan AI.
Trong khi đó, Cơ quan Giám sát Cạnh tranh và Thị trường của Anh thông báo bắt đầu đánh giá tác động của AI đối với người tiêu dùng, doanh nghiệp và nền kinh tế, cũng như xem xét khả năng áp dụng biện pháp mới nhằm kiểm soát các công cụ như ChatGPT của Công ty OpenAI. Tại Nhật Bản, Hội nghị chiến lược về trí tuệ nhân tạo đã được tổ chức với mục tiêu phát triển AI và giải quyết vấn đề phát sinh trong quá trình sử dụng.
Nhiều nhà phân tích nhận định, không thể phủ nhận lợi ích mà AI mang lại, song sức nóng của AI cũng làm dấy lên lo ngại rằng sự phát triển nhanh chóng của công nghệ này có thể kéo theo hệ lụy khôn lường. Theo Meta, công ty chủ quản của mạng xã hội Facebook, tin tặc lợi dụng cơn sốt ứng dụng AI như ChatGPT để lừa người dùng tải về mã độc. Giám đốc an ninh thông tin của Facebook mô tả đây là làn sóng tấn công bằng mã độc. Meta đã phát hiện và chặn hơn 1.000 địa chỉ trang mạng được quảng cáo là cung cấp công cụ AI tương tự ChatGPT.
Giới chuyên gia cũng cảnh báo về deepfake-công nghệ AI bị tội phạm sử dụng để giả mạo hình ảnh, giọng nói nhằm mục đích chiếm đoạt tài sản hoặc tung tin sai lệch. Thủ đoạn tinh vi này là mối lo ngại với rất nhiều người dùng internet. Không chỉ dừng lại ở việc tạo tin giả về chính trị, hay trả thù cá nhân, tội phạm sử dụng deepfake để lừa đảo hoặc tống tiền. Năm ngoái, ước tính tổng thiệt hại trong các vụ lừa đảo qua deepfake trên thế giới lên tới hàng chục triệu USD.
Theo ước tính của các chuyên gia, đầu năm 2023, giá trị thị trường AI là 207,9 tỷ USD và đến năm 2028 có thể vượt ngưỡng 1.000 tỷ USD. Việc xây dựng hành lang pháp lý nhằm kiểm soát và ngăn ngừa những nguy cơ tiềm ẩn từ AI ngày càng cấp thiết. Liên hợp quốc khẳng định, các công nghệ AI cần được giám sát chặt chẽ, cho dù công nghệ phát triển đến mức nào cũng phải bảo đảm khía cạnh quyền con người luôn là yếu tố trung tâm.
Theo Nhân Dân