Tháng 3 năm nay, tỷ phú Elon Musk cùng hơn 1.000 chuyên gia công nghệ hàng đầu thế giới đã ký một bức thư ngỏ gửi Liên hợp quốc, nhằm cảnh báo về nguy cơ trí tuệ nhân tạo (AI) phát triển không kiểm soát. Thế nhưng, ngăn chặn một đoàn tàu đã chuyển bánh luôn là điều cực kỳ khó khăn.
Giảm tốc độ cuộc đua
Ngày ra mắt thử nghiệm công khai vào tháng 11 năm ngoái, “bom tấn” ChatGPT của OpenAI đã thực sự gây ra một cơn địa chấn, theo cả nghĩa tích cực và tiêu cực. Chatbot này bắt đầu vượt qua các kỳ thi về cấp phép y tế, thậm chí hướng dẫn người dùng cách… chế tạo bom. Trên thực tế, những gì ChatGPT đang làm cho thấy: Ở một chừng mực nào đó, AI đã và đang trở nên nguy hiểm hơn rất nhiều so với những gì con người từng mường tượng.
Trí tuệ nhân tạo đang được ứng dụng trong nhiều lĩnh vực, ngành nghề
Càng sử dụng AI nhiều hơn - đặc biệt là các công cụ tổng quát như ChatGPT - những nguy cơ càng trở nên rõ rệt. Theo Hasan Chowdhury, cây viết của Insider: “AI có thể đẩy nhanh tốc độ lan truyền lỗi, khai thác sâu cả những điều tích cực và tiêu cực nhất của con người, sau khi được tích hợp vào cuộc sống”.
Vào tháng 3 năm nay, Steve Wozniak (người đồng sáng lập Apple), Elon Musk cùng hơn 1.000 nhà lãnh đạo doanh nghiệp vừa ký một bức thư yêu cầu các biện pháp bảo mật và tạm dừng phát triển các mô hình AI, trong bối cảnh công nghệ trí tuệ nhân tạo bùng nổ. Họ lập luận: Các mô hình AI mạnh mẽ như GPT-4 của OpenAI chỉ nên phát triển, nếu giành được sự tin tưởng, đồng thời kiểm soát được toàn bộ rủi ro.
James Grimmelmann, giáo sư về kỹ thuật số chia sẻ: “Đó là một ý tưởng rất hay để làm chậm quá trình phát triển mô hình mới. Bởi vì, nếu AI thực sự tốt, việc chờ đợi hàng tháng hoặc hàng năm cũng chẳng có hại gì, dù sao chúng ta cũng sẽ đi đến đích. Nếu nó có hại, chúng ta sẽ có thêm thời gian để hoạch định cách đối phó”.
Elon Musk cùng nhiều người đã mong muốn giảm tốc độ phát triển AI để kiểm soát công nghệ này tốt hơn
Những hiểm họa tiềm tàng
Trí tuệ nhân tạo có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân. Nếu một quốc gia phát triển được một hệ thống trí tuệ nhân tạo vượt trội, họ hoàn toàn có thể sử dụng nó để tấn công các quốc gia khác. Giáo sư khoa học máy tính Stuart Russell tại Đại học California - người từng dành hàng chục năm nghiên cứu về trí tuệ nhân tạo - cảnh báo: Hiện nay, loài người đã có thể sản xuất vũ khí tấn công tự động, bằng cách tích hợp và thu nhỏ những công nghệ sẵn có.
Thí nghiệm được Giáo sư Stuart Russell cùng Viện nghiên cứu Cuộc sống tương lai (FLI) tiến hành, sử dụng một robot sát thủ (slaughterbot) là thiết bị bay siêu nhỏ, trang bị camera, cảm biến, phần mềm xử lý hình ảnh, nhận diện khuôn mặt, một khối thuốc nổ nặng 3gr, và một bộ vi xử lý tốc độ cao, cho phép phân tích dữ liệu và phản ứng nhanh hơn 100 lần tốc độ bộ não con người. Theo thông số lập trình, robot sát thủ truy cập liên tục vào dữ liệu đám mây để tìm kiếm thông tin về mục tiêu và tìm cách tiếp cận. Khi đã tìm được, nó sẽ lao thẳng vào mục tiêu với vận tốc lớn, kích hoạt khối thuốc nổ, khoan sâu vào bên trong hộp sọ, giết chết nạn nhân trong nháy mắt.
Mặt khác, khi được sử dụng để thu thập thông tin cá nhân, công nghệ AI có thể bị sử dụng để vi phạm quyền riêng tư, thực hiện các hoạt động truyền thông thất thiệt, tuyên truyền thông tin sai lệch ảnh hưởng tới tình hình xã hội và ổn định chính trị. Vụ việc hệ thống mạng của Văn phòng Quản lý nhân sự (OPM) Chính phủ Mỹ bị tấn công bởi tin tặc rất đáng lưu tâm đối với bất cứ quốc gia hay tổ chức nào, khi dữ liệu cá nhân chi tiết và rất nhạy cảm của 21,5 triệu quan chức tại chức cũng như đã nghỉ hưu của Mỹ, thông tin về vợ - chồng của họ, dữ liệu về những người từng nộp đơn xin việc vào cơ quan chính phủ (như tình trạng sức khỏe, nơi cư trú, công việc, vân tay và thông tin tài chính…) đều lọt vào tay tin tặc.
Bối cảnh trí tuệ nhân tạo hủy diệt con người như trong phim “Kẻ hủy diệt” có thể sớm thành sự thật nếu không có những hành động cấp thiết
Thế nhưng, có một thực tế còn đáng sợ hơn khi CIA phát hiện ra rằng đối tượng đánh cắp dữ liệu OPM đã sử dụng công nghệ trí tuệ nhân tạo để rà soát, fake (làm giả) thông tin cá nhân, tạo lập các điệp viên ảo để đánh cắp dữ liệu. Thông tin sau khi bị đánh cắp sẽ được phân tích, phân loại, và khai thác cho các mục đích sử dụng cụ thể. Công nghệ trí tuệ nhân tạo giúp bên đánh cắp thông tin rút ngắn được thời gian khai thác thông tin, bởi con người không đủ khả năng xử lý một khối lượng thông tin khổng lồ trong một thời gian ngắn như vậy.
Bên cạnh những mối nguy hiện hữu nói trên, công nghệ AI cũng tạo ra những nguy cơ khác như: Phụ thuộc quá mức vào nó, dẫn đến hậu quả con người mất kiểm soát tình hình và suy giảm khả năng đưa ra quyết định. Trí tuệ nhân tạo cũng sẽ khiến hàng triệu, thậm chí hàng trăm triệu người mất việc làm, đặc biệt là đối với những công việc lao động chân tay thuần túy, ít hàm lượng tri thức. Hậu quả là những vấn đề xã hội nghiêm trọng như thất nghiệp, tội phạm, khoảng cách giàu - nghèo... sẽ càng trở nên sâu sắc hơn.
Thêm vào đó, độ tin cậy cũng là vấn đề cần nhắc đến. Độ tin cậy của các quyết định trong các lĩnh vực chuyên môn hóa cao như y tế, hình sự... là vô cùng quan trọng. Khi sử dụng AI để trợ giúp đưa ra các quyết định trong những lĩnh vực mà công nghệ không đủ tin cậy, vận hành dựa trên các dữ liệu có xu hướng thiên vị một hoặc một nhóm người, hoặc bị bóp méo có chủ đích, đương nhiên, những quyết định đi theo có khả năng gây hậu quả nghiêm trọng.
AI có thể được thiết kế sai lệch hoặc được “huấn luyện” (training) thông qua cơ chế học máy (machine learning) không đúng cách, từ đó dẫn đến những hành động không mong muốn, gây thiệt hại cho con người và môi trường. Thí dụ, với cơ chế học máy, AI ngày càng trở nên thông minh hơn. Khi trí tuệ nhân tạo đạt mức độ thông minh, từ chỗ hỗ trợ các hệ thống quan trọng như điện lực, giao thông, y tế, tài chính..., nó có thể tiến tới làm chủ và kiểm soát toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định đó trong các tình huống khẩn cấp.
Khi AI được “trang bị” thêm các mục đích mang tính “dã tâm” có chủ đích (thiết kế sai lệch), nó có thể gây ra nhiều hậu quả nghiêm trọng như làm rối loạn hệ thống giao thông khi vô hiệu hóa hệ thống đèn giao thông; hoặc ngắt điện hệ thống vận hành tàu điện đô thị, gây tai nạn liên hoàn, làm mất điện trên diện rộng...
AI làm dấy lên lo ngại về quyền riêng tư
Cần những biện pháp
Để AI không tiến triển thành nguy cơ, mà chuyển biến thành sự hứng khởi trong nghiên cứu, đồng thời có thể được ứng dụng một cách an toàn với những giá trị vượt trội về năng suất lao động, trải nghiệm khách hàng hay quản trị vận hành… các nhà khoa học cho rằng cần phải có những hiệp ước hay khung pháp lý mang tính toàn cầu về phát triển AI.
Giám đốc điều hành OpenAI, Sam Altman cho rằng: “Quy định của chính phủ về AI là rất quan trọng, khi các hệ thống này đang phát triển mạnh mẽ và có nhiều đột phá”. Các chuyên gia công nghệ cũng cảnh báo: Nếu giới chức các quốc gia không nhanh chóng xây dựng hành lang pháp lý phù hợp và triển khai những biện pháp bảo vệ cần thiết thì nguy cơ AI có thể ảnh hưởng xấu đến quyền riêng tư, quyền tự do cá nhân hoặc thúc đẩy sự bất bình đẳng… là rất rõ ràng.
Xu thế sử dụng AI đang nở rộ nhanh chóng và thu hút chú ý rộng rãi của người sử dụng trong năm 2022, do vậy các doanh nghiệp đều muốn kết hợp công nghệ này vào sản phẩm nhằm thu hút khách hàng. Theo báo cáo của Ủy ban AI thuộc Phòng Thương mại Mỹ hồi đầu năm, hầu như mọi doanh nghiệp và cơ quan Chính phủ Mỹ sẽ sử dụng AI trong vòng 10 đến 20 năm tới.
Vì vậy, trong báo cáo này, Ủy ban AI của Mỹ cũng đã gấp rút kêu gọi Quốc hội và chính quyền đặt ưu tiên hàng đầu là xây dựng quy định kiểm soát các công cụ AI. Cơ quan này khuyến nghị các nhà lãnh đạo cần xây dựng luật và quy định chặt chẽ, nhằm phát triển AI có trách nhiệm và sử dụng công cụ này một cách có đạo đức. Ủy ban AI cho rằng các nhà hoạch định chính sách nên tập trung vào việc khắc phục những lỗ hổng trong luật, cũng như thúc đẩy đổi mới, sáng tạo và chuẩn bị lực lượng lao động cho môi trường lấy AI làm trung tâm.
Nếu không nhanh chóng có những hành động cấp thiết, tương lai con người bị đe dọa bởi trí tuệ nhân tạo - vốn từ lâu đã được khắc họa trong những bộ phim Hollywood - có lẽ sẽ không còn là chuyện viễn tưởng xa vời…
Theo ĐỖ TIẾN / Báo CÔNG AN NHÂN DÂN