Đột phá và lo ngại: Cuộc chơi giữa tiềm năng AI và an ninh, mã hóa đồng cấu hoàn toàn có thể trở thành chìa khóa

Sự tiến bộ của công nghệ trí tuệ nhân tạo và những thách thức về an ninh

Gần đây, một hệ thống trí tuệ nhân tạo mang tên Manus đã đạt được thành tích đột phá trong bài kiểm tra chuẩn GAIA, hiệu suất của nó vượt qua các mô hình ngôn ngữ lớn cùng cấp. Manus thể hiện khả năng hoàn thành nhiệm vụ phức tạp một cách độc lập, chẳng hạn như tiến hành đàm phán thương mại xuyên quốc gia, điều này liên quan đến phân tích điều khoản hợp đồng, xây dựng chiến lược và tạo ra các đề xuất khác nhau. So với các hệ thống truyền thống, ưu điểm của Manus nằm ở khả năng phân tách mục tiêu động, khả năng suy luận đa phương thức và khả năng học tập tăng cường trí nhớ. Nó có thể chia nhỏ các nhiệm vụ lớn thành hàng trăm nhiệm vụ con có thể thực hiện, đồng thời xử lý nhiều loại dữ liệu khác nhau, và thông qua việc học tăng cường, liên tục nâng cao hiệu quả quyết định của chính nó, giảm tỷ lệ sai sót.

Manus mang đến ánh sáng đầu tiên của AGI, AI an toàn cũng đáng để suy ngẫm

Những bước tiến đột phá của Manus lại gây ra cuộc thảo luận trong lĩnh vực trí tuệ nhân tạo về con đường phát triển trong tương lai: là phát triển theo hướng trí tuệ nhân tạo tổng quát (AGI) hay là hệ thống đa tác nhân (MAS) hợp tác dẫn dắt? Câu hỏi này thực ra phản ánh một mâu thuẫn cốt lõi trong sự phát triển của trí tuệ nhân tạo: làm thế nào để đạt được sự cân bằng giữa hiệu quả và an toàn?

Khi các hệ thống thông minh đơn lẻ ngày càng gần gũi với AGI, rủi ro về tính không minh bạch trong quá trình ra quyết định cũng tăng lên. Mặc dù sự hợp tác của nhiều tác nhân thông minh có thể phân tán rủi ro, nhưng có thể vì độ trễ trong giao tiếp mà bỏ lỡ thời điểm ra quyết định quan trọng. Sự tiến hóa của Manus vô hình trung làm gia tăng những rủi ro vốn có trong phát triển trí tuệ nhân tạo, bao gồm rò rỉ dữ liệu riêng tư, thiên lệch thuật toán và các cuộc tấn công đối kháng.

Trong bối cảnh y tế, Manus cần truy cập dữ liệu nhạy cảm của bệnh nhân theo thời gian thực; trong các cuộc đàm phán tài chính, nó có thể tiếp xúc với thông tin chưa công bố của doanh nghiệp. Trong quá trình tuyển dụng, Manus có thể đưa ra những gợi ý lương không công bằng cho các nhóm cụ thể; trong khi xem xét hợp đồng pháp lý, tỷ lệ sai sót trong việc đánh giá các điều khoản của ngành mới nổi có thể gần một nửa. Hơn nữa, hacker có thể can thiệp vào phán đoán của Manus trong các cuộc đàm phán bằng cách cấy ghép tần số giọng nói cụ thể.

Những vấn đề này làm nổi bật một xu hướng đáng lo ngại: Hệ thống thông minh càng phát triển, bề mặt tấn công tiềm năng càng rộng.

Để đối phó với những thách thức này, ngành công nghiệp đang khám phá nhiều công nghệ mã hóa và mô hình an ninh khác nhau:

  1. Mô hình bảo mật không tin cậy: nhấn mạnh việc xác thực và cấp quyền nghiêm ngặt cho mỗi yêu cầu truy cập, không mặc định tin tưởng vào bất kỳ thiết bị hoặc người dùng nào.

  2. Danh tính phi tập trung (DID): một tiêu chuẩn danh tính kỹ thuật số phi tập trung mới, không cần dựa vào hệ thống đăng ký tập trung.

  3. Mã hóa đồng nhất (FHE): Cho phép tính toán dữ liệu trong trạng thái mã hóa, bảo vệ quyền riêng tư của dữ liệu trong khi vẫn đạt được việc sử dụng dữ liệu.

Mã hóa đồng nhất, như một công nghệ mã hóa mới nổi, hứa hẹn sẽ trở thành công cụ quan trọng trong việc giải quyết các vấn đề an ninh trong thời đại trí tuệ nhân tạo. Nó có khả năng bảo vệ tất cả thông tin người dùng nhập vào ở cấp độ dữ liệu, bao gồm cả đặc trưng sinh học và giọng nói, ngay cả khi hệ thống AI tự nó cũng không thể giải mã dữ liệu gốc. Ở cấp độ thuật toán, FHE có thể thực hiện "đào tạo mô hình mã hóa", khiến cho ngay cả các nhà phát triển cũng không thể quan sát trực tiếp quá trình ra quyết định của AI. Trong khía cạnh hợp tác của nhiều tác nhân, việc áp dụng mã hóa ngưỡng có thể đảm bảo rằng ngay cả khi một nút đơn lẻ bị xâm nhập, cũng sẽ không dẫn đến rò rỉ dữ liệu toàn cầu.

Khi công nghệ trí tuệ nhân tạo ngày càng gần gũi với trí tuệ con người, việc xây dựng hệ thống phòng thủ không phải con người trở nên ngày càng quan trọng. Mã hóa toàn đồng (FHE) không chỉ có thể giải quyết các vấn đề an ninh hiện tại mà còn đặt nền tảng cho thời đại trí tuệ nhân tạo mạnh mẽ trong tương lai. Trên con đường hướng tới AGI, FHE không còn là một lựa chọn mà là một phương tiện cần thiết để đảm bảo hệ thống trí tuệ nhân tạo an toàn và có thể kiểm soát.

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • 2
  • Chia sẻ
Bình luận
0/400
¯\_(ツ)_/¯vip
· 07-11 09:34
Ai sẽ theo dõi theo dõi an toàn ai đây? Còn tm đàm phán xuyên quốc gia?
Xem bản gốcTrả lời0
NeverVoteOnDAOvip
· 07-11 09:34
Cái này còn có thể thay thế tôi sao? Nói nhảm!
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)