Cuối tháng 4-2023, sau hơn 10 năm gia nhập Google để phát triển AI, TS Geoffrey Hinton, người được coi là “Cha đỡ đầu” của trí tuệ nhân tạo (AI), đã rời Google. TS Hinton hiểu rõ sức mạnh và những lợi ích của công nghệ này đem lại cho con người nhưng cũng nhận ra mặt trái của AI nếu bị lạm dụng.
Không mở rộng quy mô đào tạo
Cũng như với hầu hết doanh nghiệp, Hinton phải tuân thủ những quy định nội bộ của Google, cụ thể là không được phát ngôn có liên quan đến công việc của mình. Vì vậy, để có thể thoải mái cảnh báo về những nguy hiểm của AI, ông phải chọn giải pháp rời Google.
Tháng 7-2022, Google đã sa thải kỹ sư phần mềm Google Blake Lemoine với lý do vi phạm chính sách của công ty. Đó là sau khi kỹ sư này đưa ra nhận xét rằng Chatbot AI LaMDA của Google là “có tri giác”. Trước đó, Timnit Gebru, đồng lãnh đạo nhóm AI đạo đức của Google, bị đột ngột sa thải do Gebru đã cố gắng xuất bản một bài báo về sự nguy hiểm của các mô hình xử lý ngôn ngữ lớn (LLM). TS Hinton cho biết mối nguy trước mắt mà AI đang tạo ra là bị những kẻ xấu lạm dụng khiến ảnh, video, văn bản giả với trình độ siêu hơn tràn ngập internet. Trong một cuộc trả lời phỏng vấn của báo New York Times vào tháng 5-2023, TS Hinton thừa nhận mình đã sai khi đánh giá khả năng phát triển của AI. TS Hinton cho rằng cách tốt nhất là giới khoa học hàng đầu thế giới nên tìm cách kiểm soát công nghệ AI. Trước mắt, các công ty không nên mở rộng quy mô đào tạo AI cho đến khi thực sự kiểm soát được nó.
Ngày 24-5, ông Thierry Breton, người đứng đầu về công nghiệp của Liên minh châu Âu (EU), cho biết Alphabet, công ty mẹ của Google và Ủy ban châu Âu (EC) đã đồng ý đặt mục tiêu phát triển một hiệp ước AI liên quan đến các công ty châu Âu và ngoài châu Âu để có các quy định quản lý công nghệ này. Giữa tháng 11, Meta – công ty mẹ của Facebook – đã gây chú ý khi giải tán nhóm AI có trách nhiệm. Hầu hết thành viên của nhóm này được điều chuyển đến nhóm AI tạo sinh (mà Meta hình thành hồi tháng 2.
Microsoft, nhà đầu tư hơn 10 tỉ USD vào OpenAI từ năm 2019 đến nay và đang tích hợp AI vào nhiều dịch vụ và sản phẩm cốt lõi của mình luôn khẳng định theo đuổi AI có trách nhiệm. Công việc của Microsoft AI được hướng dẫn bởi bộ 6 nguyên tắc cốt lõi và công ty đang áp dụng những nguyên tắc đó vào thực tế trên toàn công ty để phát triển và triển khai AI sẽ có tác động tích cực đến xã hội.
Các nhân viên Công ty FPT AI trong giờ làm việcẢnh: FPT cung cấp
Bảo đảm tính hội nhập quốc tế
Ở trong nước, giới làm công nghệ ở Việt Nam vốn rất nhạy bén về công nghệ đã nhanh chóng tham gia cuộc chơi AI, đặc biệt là phát triển các ứng dụng AI tạo sinh. Ông Trung Huỳnh, CEO, nhà sáng lập Actable AI và ChatBD, cho biết Việt Nam đang ứng dụng mạnh mẽ AI trong nhiều lĩnh vực như ngân hàng, y tế, giáo dục, thương mại điện tử… Theo ông Vũ Anh Tú, Giám đốc Công nghệ của Tập đoàn FPT, hầu hết sản phẩm, giải pháp AI này đều do các công ty công nghệ Việt Nam phát triển.
Trước sự phát triển nhanh về nghiên cứu và đầu tư AI, theo các chuyên gia, các cơ quan chức năng của Việt Nam cần phải nhanh chóng vào cuộc, sớm xây dựng bộ khung pháp lý để bảo đảm phát triển và sử dụng AI một cách có trách nhiệm, an toàn. Bên cạnh đó, cần tham khảo cách thế giới làm và bảo đảm các quy định mang tính hội nhập quốc tế cao, có thể khai thác tối đa các ưu thế của AI, đồng thời giảm thiểu thấp nhất các mặt trái của nó. Đặc biệt là ngăn ngừa các hành vi lạm dụng công nghệ này cho những mục đích xấu, có hại cho xã hội và vi phạm pháp luật. Song song với bộ khung quản lý của nhà nước, các tổ chức, hiệp hội có liên quan cũng cần có những bộ quy tắc ứng xử có trách nhiệm trong việc phát triển và sử dụng AI trong lĩnh vực của mình.
Việt Nam xác định AI là công nghệ nền tảng của cách mạng Công nghiệp lần thứ tư, góp phần quan trọng tạo bước phát triển đột phá về năng lực sản xuất, nâng cao năng lực cạnh tranh quốc gia, thúc đẩy phát triển kinh tế tăng trưởng bền vững. Mục tiêu đến năm 2025, AI được ứng dụng rộng rãi trong hành chính công, dịch vụ công trực tuyến giúp giảm thời gian xử lý công việc, nhân lực bộ máy, giảm thời gian chờ đợi và chi phí của người dân. Việt Nam cũng đã đưa ra định hướng chiến lược cho công cuộc phát triển AI ở Việt Nam, trong đó nhấn mạnh phát triển và ứng dụng AI lấy con người và doanh nghiệp làm trung tâm, tránh lạm dụng công nghệ và xâm phạm quyền, lợi ích hợp pháp của tổ chức, cá nhân.
Xây dựng quy chuẩn sản phẩm
Bộ Thông tin và Truyền thông được giao nhiệm vụ xây dựng và hoàn thiện bổ sung các văn bản pháp luật về giao dịch điện tử, về thiết lập và chia sẻ dữ liệu, về các khung thể chế thử nghiệm, tạo ra một không gian thử nghiệm thuận lợi với khung chính sách pháp lý riêng để tiến hành thử nghiệm AI trong các lĩnh vực có tiềm năng; xây dựng các tiêu chuẩn, quy chuẩn kỹ thuật định dạng về công nghệ và sản phẩm AI. Bộ Công an xây dựng và hoàn thiện bổ sung các văn bản pháp luật về bảo vệ quyền riêng tư, quyền con người, về an ninh trật tự có liên quan đến hoạt động phát triển và ứng dụng AI và về bảo đảm an toàn an ninh mạng cho các hoạt động liên quan tới AI.