Tránh bị tuyệt chủng: Hỏi đáp với Jeremie Harris của Gladstone AI.

Tác giả Scott Nover... Ngày 26 tháng 3 năm 2024... gzero.

Vào tháng 11 năm 2022, Bộ Ngoại giao Hoa Kỳ đã thực hiện một báo cáo toàn diện về những rủi ro của trí tuệ nhân tạo, AI. Chính phủ đã tìm đến Gladstone AI, một công ty gồm bốn người được thành lập vào năm trước, để viết những báo cáo như vậy, và tóm tắt ngắn gọn cho các quan chức chính phủ về các vấn đề quan trọng liên quan đến an toàn của AI.

Gladstone AI đã phỏng vấn hơn 200 người làm việc trong và chung quanh AI, về những rủi ro khiến họ phải trăn trở, không chợp mắt được. Báo cáo của họ có tiêu đề  “ Phòng thủ chuyên sâu: Kế hoạch hành động nhằm tăng cường sự an toàn và bảo mật của AI tiên tiến ”, được công bố ra công chúng vào ngày 11 tháng 3.

Phiên bản ngắn ấy ra sao ? Điều đó khá tàn khốc: “Sự bùng nổ tiến bộ gần đây trong trí tuệ nhân tạo tiên tiến đã mang lại những cơ hội to lớn, nhưng nó cũng đang tạo ra những loại vũ khí hoàn toàn mới, có khả năng hủy diệt hàng loạt và có nguy cơ thảm khốc tạo ra Vũ khí hủy diệt hàng loạt”. Bên cạnh từ “rủi ro thảm khốc” là một chú thích đặc biệt đáng lo ngại: “Khi nói đến rủi ro thảm khốc, chúng tôi muốn nói đến rủi ro xảy ra các sự kiện thảm khốc lên đến mức, và bao gồm cả các sự kiện có thể dẫn đến sự tuyệt chủng của nhân loại”.

Với tất cả những ý nghĩ đó, gzero  đã nói chuyện với Jeremie Harris , đồng sáng lập và là Giám đốc điều hành của Gladstone AI, về cách thực hiện báo cáo này, và cách chúng ta nên điều chỉnh lại suy nghĩ của mình về những rủi ro do AI gây ra.

Cuộc phỏng vấn này đã được chỉnh sửa cho rõ ràng và dài hơn.

_ gzero. : Gladstone là gì và cơ hội viết báo cáo này ở mức như thế nào?

#Jeremie Harris: Sau khi GPT-3 ra mắt vào năm 2020, chúng tôi đã đánh giá rằng nguyên tắc chủ yếu đằng sau nó, có thể mở rộng đủ để chúng tôi dự kiến một sự tăng tốc triệt để về khả năng của AI. Quan điểm của chúng tôi được định hình bởi chuyên môn kỹ thuật về AI (chúng tôi đã thành lập một công ty AI hiện đã được mua lại vào năm 2016), và bởi các cuộc trò chuyện của chúng tôi với bạn bè tại các phòng thí nghiệm về lĩnh vực AI, bao gồm cả chính OpenAI.

Vào thời điểm đó, rõ ràng là thời điểm của ChatGPT sắp ra mắt và chính phủ Hoa Kỳ cần phải tăng tốc. Chúng tôi đã thông báo tóm tắt cho nhiều bên liên quan, từ những thư ký nội các đến các quan chức hành động với cấp độ làm việc về bối cảnh của AI mới. Một năm trước khi ChatGPT được phát hành, chúng tôi tình cờ gặp một nhóm tại Bộ Ngoại giao, họ đã nhận ra tầm quan trọng của việc mở rộng quy mô AI với các mô hình lớn hơn, mạnh mẽ hơn. Họ quyết định tiến hành đánh giá rủi ro đó trước khi ChatGPT ra mắt một tháng, và chúng tôi đã được trao hợp đồng.

_ gzero.: Bạn đã phỏng vấn 200 chuyên gia. Làm thế nào để bạn xác định được nên nói chuyện với ai và xem ai là người nghiêm túc nhất?

#Harris: Chúng tôi biết những người đóng góp chính cho lĩnh vực này là ai, và đã nói chuyện riêng với nhiều người trong số họ.

Cách tiếp cận của chúng tôi là xác định và thu hút tất cả các nhóm có quan điểm chính hiểu biết về những vấn đề này, từ lãnh đạo đến những người hoài nghi về rủi ro của AI, cho đến các nhà nghiên cứu có liên quan. Chúng tôi đã nói chuyện với các thành viên của các nhóm điều hành, các nhóm chính sách, các nhóm an toàn và năng lực tại các phòng thí nghiệm hàng đầu. Ngoài ra, chúng tôi còn tổ chức các cuộc gặp gỡ tại chỗ với các nhà nghiên cứu tại các tổ chức học thuật hàng đầu ở Hoa Kỳ và Vương quốc Anh, cũng như với các công ty kiểm toán AI và các nhóm xã hội dân sự.

Chúng tôi cũng biết rằng chúng tôi cần tính đến quan điểm độc đáo của cộng đồng an ninh quốc gia của chính phủ Hoa Kỳ, một cộng đồng có lịch sử lâu dài trong việc giải quyết các công nghệ mới nổi, và những rủi ro giống như Vũ khí hủy diệt hàng loạt. Chúng tôi đã tổ chức những hội thảo chưa từng có, quy tụ các đại diện và chuyên gia về Vũ khí hủy diệt hàng loạt từ khắp các cơ quan liên ngành của Hoa Kỳ, để thảo luận về AI và các rủi ro an ninh quốc gia của nó, đồng thời yêu cầu họ phát hiện, ngăn chặn và xóa bỏ các lỗ hổng bảo mật trong các đề xuất và phân tích của chúng tôi.

_ gzero.:  Bạn muốn người bình thường biết gì về những gì bạn đã tìm thấy?

#Harris: AI đã giúp chúng ta tạo ra những bước đột phá đáng kinh ngạc trong các lĩnh vực như khoa học vật liệu và y học. Triển vọng của công nghệ này là có thật. Thật không may, những khả năng tương tự vốn tạo ra triển vọng đó cũng tạo ra rủi ro, và mặc dù chúng tôi không thể chắc chắn, nhưng lượng dữ liệu ngày càng tăng và đáng kể cho thấy rằng, những rủi ro này có thể dẫn đến những tác động với quy mô Vũ khí hủy diệt hàng loạt, nếu chúng không được quản lý đúng cách. Vấn đề không phải là làm cách nào để chúng ta ngừng phát triển AI, mà là, làm cách nào để chúng ta có thể thực hiện các biện pháp bảo vệ thông thường mà chính các nhà nghiên cứu AI thường kêu gọi, để chúng ta có thể thu được những lợi ích to lớn.

_ gzero.: Độc giả của chúng tôi (hy vọng) có nhiều thông tin hơn so với người bình thường về AI. Họ nên thu nhận gì từ báo cáo?

#Harris: Các phòng thí nghiệm AI hàng đầu hiện đang tham gia vào một cuộc đua trên con đường đạt tới AI cấp độ con người, hay gọi là AGI. Động lực cạnh tranh này làm xói mòn số dự trữ kỷ thuật mà lẽ ra họ có thể đầu tư vào việc phát triển và thực hiện các biện pháp an toàn, vào thời điểm chúng ta đang thiếu phương tiện kỹ thuật để bảo đảm rằng các hệ thống cấp độ AGI, có thể được kiểm soát hoặc ngăn chặn việc bị vũ khí hóa. Cùng với thách thức này là vấn đề địa chính trị của việc phát triển AI, khi các quốc gia khác phát triển các chương trình AI riêng ở trong nước của họ.

Vấn đề này có thể được giải quyết. Kế hoạch hành động đưa ra một cách nhằm ổn định động lực chạy đua đang diễn ra ở sân đấu của lĩnh vực này; tăng cường khả năng của chính phủ Hoa Kỳ trong việc phát hiện và ứng phó với các sự cố AI; và mở rộng quy mô phát triển AI một cách an toàn ở trong nước và trên quốc tế.

Chúng tôi đề xuất nên tận dụng các cơ quan chức năng hiện có, xác định các yêu cầu đối với các chế độ pháp lý mới khi thích hợp, và nêu bật các lựa chọn kỹ thuật mới để quản lý AI, khiến giúp thực hiện các biện pháp bảo vệ trong nước và quốc tế dễ dàng hơn nhiều.

_ gzero.: Điều đáng ngạc nhiên nhất—hoặc đáng báo động—mà bạn gặp phải khi tổng hợp báo cáo này là gì?

#Harris: Từ việc nói chuyện với các nhà nghiên cứu các vấn đề mà chưa có ai khảo cứu, rõ ràng là các phòng thí nghiệm đang chịu áp lực đáng kể trong việc đẩy nhanh công việc của họ, và đẩy nhanh việc xây dựng các hệ thống mạnh mẽ hơn, và điều này ngày càng liên quan đến việc tuyển dụng những nhân viên quan tâm nhiều hơn đến việc thúc đẩy năng lực, thay vì giải quyết rủi ro. Điều này đã tạo ra một cơ hội quan trọng : nhiều giám đốc điều hành và nhân viên của phòng thí nghiệm lĩnh vực này muốn áp dụng cách tiếp cận cân bằng hơn. Do đó, chính phủ có cơ hội để đưa ra các biện pháp bảo vệ hợp lý, mà sẽ được hoan nghênh không chỉ bởi công chúng mà còn bởi các thành phần quan trọng trong chính các phòng thí nghiệm vốn chưa có ai khảo cứu. 

_ gzero.: Có điều gì khiến chúng ta cảm thấy hài lòng về hướng đi của mọi việc không?

#Harris: Chắc chắn rồi. Nếu chúng ta có thể giải quyết phần rủi ro của tình huống bao gồm nhiều yếu tố thay đổi,  AI sẽ mang lại nhiều triển vọng. Và thực sự có những giải pháp cho những vấn đề này. Chúng đòi hỏi hành động táo bạo, nhưng đó không phải là chưa từng có: trước đây chúng ta đã phải đối mặt với những rủi ro thảm khốc đối với an ninh quốc gia, từ công nghệ sinh học đến vũ khí hạt nhân.

AI là một loại thách thức khác, nhưng nó cũng đi kèm với các đòn bẩy kỹ thuật vốn có thể giúp việc bảo mật và bảo hiểm dễ dàng hơn. Các giao thức quản trị trên chip cung cấp những cách mới, để xác minh việc tuân thủ các điều ước quốc tế, và các biện pháp bảo vệ chi tiết dựa trên phần mềm, chúng có thể cho phép thực hiện các biện pháp quản lý có mục tiêu cao nhằm có thể giảm gánh nặng tối đa cho ngành quản trị.

_ Tác giả Scott Nover.

_ Trần H Sa lược dịch từ GZERO. .. 27/3/2024.

Bài đăng phổ biến từ blog này

Trung Quốc đang đụng đầu với khủng hoảng ?

Nỗi sợ ngân hàng gây thêm đau đầu cho nền kinh tế Trung Quốc.

Xung đột vũ trang ở Biển Đông.