(Tiếp)
Heidy Khlaaf, nhà khoa học AI trưởng tại Viện AI Now, tập trung nghiên cứu của mình vào tính an toàn của AI trong các hệ thống vũ khí và an ninh quốc gia. Bà nói với Defense One rằng đột phá này, nếu có thật, có thể mở ra việc sử dụng AI tạo ra cho những người chơi nhỏ hơn, bao gồm cả những nhà sản xuất nhỏ tiềm năng. Nhưng bà cho biết những mô hình như vậy sẽ không bao giờ phù hợp để chiến đấu, mặc dù có sự háo hức sử dụng chúng trong những bối cảnh như vậy.
Khlaaf cho biết: “Nhìn chung, LLM hoặc mô hình nền tảng không phù hợp với các nhiệm vụ quan trọng về an toàn vì chúng dễ bị lỗi với các ứng dụng đòi hỏi độ tin cậy và độ chính xác. Tuy nhiên, quy mô và khả năng của DeepSeek mở ra việc sử dụng các mô hình nền tảng cho các bên nhỏ hơn, những bên trước đây có thể không có quyền truy cập và điều đó có thể bao gồm các nhà sản xuất ô tô có thể quan tâm đến việc sử dụng các mô hình nền tảng theo cách không quan trọng về an toàn”.
Andrew Reddie thuộc Phòng thí nghiệm Rủi ro và An ninh Berkeley, nói với Defense One, “Hiệu suất của DeepSeek hoàn toàn không gây ngạc nhiên cho những người trong chúng tôi đã theo dõi cách các nhà nghiên cứu AI có thể phát triển các mô hình với lượng tính toán giảm dần”.
Các công ty Mỹ nên coi bước đột phá này là cơ hội để theo đuổi sự đổi mới theo một hướng khác, ông nói. “Điều thú vị là những thách thức về tính toán mà các nhà nghiên cứu Trung Quốc phải đối mặt (trong bối cảnh Hoa Kỳ kiểm soát xuất khẩu GPU NVIDIA) không khác gì những thách thức mà các học giả Hoa Kỳ đang phải đối mặt vì chúng ta ngày càng bị hạn chế về tính toán so với những người chơi trong ngành công nghiệp tư nhân”.
Quân đội Hoa Kỳ đã chi tiêu đáng kể vào các khả năng biên để đưa sức mạnh tính toán đến gần với chiến binh nhất có thể. Reddie cho biết bước đột phá về hiệu suất mô hình nhỏ hơn cho thấy các khoản đầu tư vào điện toán biên đó đã tăng giá trị.
“Cũng có một câu hỏi thực sự thú vị về việc sử dụng các mô hình mở trái ngược với các mô hình đóng trong bối cảnh quân sự”, ông nói. “Ưu điểm của mô hình mở là chúng dễ dàng di chuyển bên trong các mạng lưới chính phủ để tận dụng dữ liệu chính phủ/quân đội, nhưng có những rủi ro rõ ràng là các quốc gia đối địch có được dữ liệu đào tạo, trọng số mô hình, v.v.”
Nhưng có lẽ điều quan trọng nhất rút ra được từ thông báo của DeepSeek không phải là ý nghĩa của nó đối với cuộc cạnh tranh giữa Hoa Kỳ và Trung Quốc, mà là đối với các cá nhân, tổ chức công và bất kỳ ai hoài nghi về ảnh hưởng ngày càng tăng của một nhóm ngày càng nhỏ các công ty công nghệ. Đây là tin tốt nếu bạn muốn xây dựng công cụ AI tạo sinh của riêng mình, với dữ liệu bạn kiểm soát, thay vì dựa vào một công cụ từ một công ty lớn có thể hoặc không quan tâm đến lợi ích tốt nhất của bạn.
"Internet đã phát triển mạnh mẽ như một tập hợp các dịch vụ phi tập trung", Gupta cho biết. Nếu mục tiêu là để mọi người có 'AI cá nhân' của riêng mình, thì sẽ cần các mô hình nhỏ chạy trên các thiết bị cá nhân của mọi người. Tôi hy vọng các công ty như Apple, những công ty có mô hình ưu tiên quyền riêng tư, sẽ tiếp tục thúc đẩy các thuật toán ngoại tuyến, không kết nối.
Nhưng Khlaaf cảnh báo rằng việc thay thế các mô hình lớn bằng các mô hình tinh gọn sẽ gây ra rủi ro về quyền riêng tư cá nhân, ảnh hưởng đến cả quân đội, vì việc tiết lộ dữ liệu cá nhân sẽ ảnh hưởng đến họ giống như đối với dân thường, khiến họ dễ bị nhắm mục tiêu, cưỡng ép, v.v.
Và việc dữ liệu cá nhân của người Mỹ bị tiết lộ rộng rãi tự nó là một lỗ hổng quốc gia mà kẻ thù có thể lợi dụng trong trường hợp xảy ra xung đột, như các nhà lãnh đạo quân sự đã chỉ ra. Nếu không có cải cách toàn diện để giúp cá nhân bảo vệ dữ liệu của mình tốt hơn, sự gia tăng của các mô hình nhỏ mạnh mẽ như DeepSeek có thể khiến xu hướng xấu trở nên tồi tệ hơn.
Khlaaf cho biết: “DeepSeek thách thức quan niệm cho rằng các mô hình quy mô lớn hơn luôn có hiệu suất cao hơn, điều này có ý nghĩa quan trọng do các lỗ hổng bảo mật và quyền riêng tư đi kèm với việc xây dựng các mô hình AI ở quy mô lớn”.
Đối với quyền riêng tư cá nhân, “các kỹ thuật chưng cất cho phép nén các mô hình lớn hơn thành các mô hình nhỏ hơn trong khi vẫn bảo toàn nhiều đặc tính của mô hình lớn hơn. Đối với những công dân có mô hình nền tảng được đào tạo trên dữ liệu của họ, tất cả các vấn đề về quyền riêng tư tương tự sẽ được duy trì trong các mô hình chưng cất của DeepSeek—chỉ khác là hiện không nằm trong phạm vi quyền hạn của Hoa Kỳ. Đó là lý do tại sao chúng tôi cảnh báo rằng việc đào tạo các mô hình AI trên dữ liệu nhạy cảm gây ra rủi ro an ninh quốc gia”.
Heidy Khlaaf, nhà khoa học AI trưởng tại Viện AI Now, tập trung nghiên cứu của mình vào tính an toàn của AI trong các hệ thống vũ khí và an ninh quốc gia. Bà nói với Defense One rằng đột phá này, nếu có thật, có thể mở ra việc sử dụng AI tạo ra cho những người chơi nhỏ hơn, bao gồm cả những nhà sản xuất nhỏ tiềm năng. Nhưng bà cho biết những mô hình như vậy sẽ không bao giờ phù hợp để chiến đấu, mặc dù có sự háo hức sử dụng chúng trong những bối cảnh như vậy.
Khlaaf cho biết: “Nhìn chung, LLM hoặc mô hình nền tảng không phù hợp với các nhiệm vụ quan trọng về an toàn vì chúng dễ bị lỗi với các ứng dụng đòi hỏi độ tin cậy và độ chính xác. Tuy nhiên, quy mô và khả năng của DeepSeek mở ra việc sử dụng các mô hình nền tảng cho các bên nhỏ hơn, những bên trước đây có thể không có quyền truy cập và điều đó có thể bao gồm các nhà sản xuất ô tô có thể quan tâm đến việc sử dụng các mô hình nền tảng theo cách không quan trọng về an toàn”.
Andrew Reddie thuộc Phòng thí nghiệm Rủi ro và An ninh Berkeley, nói với Defense One, “Hiệu suất của DeepSeek hoàn toàn không gây ngạc nhiên cho những người trong chúng tôi đã theo dõi cách các nhà nghiên cứu AI có thể phát triển các mô hình với lượng tính toán giảm dần”.
Các công ty Mỹ nên coi bước đột phá này là cơ hội để theo đuổi sự đổi mới theo một hướng khác, ông nói. “Điều thú vị là những thách thức về tính toán mà các nhà nghiên cứu Trung Quốc phải đối mặt (trong bối cảnh Hoa Kỳ kiểm soát xuất khẩu GPU NVIDIA) không khác gì những thách thức mà các học giả Hoa Kỳ đang phải đối mặt vì chúng ta ngày càng bị hạn chế về tính toán so với những người chơi trong ngành công nghiệp tư nhân”.
Quân đội Hoa Kỳ đã chi tiêu đáng kể vào các khả năng biên để đưa sức mạnh tính toán đến gần với chiến binh nhất có thể. Reddie cho biết bước đột phá về hiệu suất mô hình nhỏ hơn cho thấy các khoản đầu tư vào điện toán biên đó đã tăng giá trị.
“Cũng có một câu hỏi thực sự thú vị về việc sử dụng các mô hình mở trái ngược với các mô hình đóng trong bối cảnh quân sự”, ông nói. “Ưu điểm của mô hình mở là chúng dễ dàng di chuyển bên trong các mạng lưới chính phủ để tận dụng dữ liệu chính phủ/quân đội, nhưng có những rủi ro rõ ràng là các quốc gia đối địch có được dữ liệu đào tạo, trọng số mô hình, v.v.”
Nhưng có lẽ điều quan trọng nhất rút ra được từ thông báo của DeepSeek không phải là ý nghĩa của nó đối với cuộc cạnh tranh giữa Hoa Kỳ và Trung Quốc, mà là đối với các cá nhân, tổ chức công và bất kỳ ai hoài nghi về ảnh hưởng ngày càng tăng của một nhóm ngày càng nhỏ các công ty công nghệ. Đây là tin tốt nếu bạn muốn xây dựng công cụ AI tạo sinh của riêng mình, với dữ liệu bạn kiểm soát, thay vì dựa vào một công cụ từ một công ty lớn có thể hoặc không quan tâm đến lợi ích tốt nhất của bạn.
"Internet đã phát triển mạnh mẽ như một tập hợp các dịch vụ phi tập trung", Gupta cho biết. Nếu mục tiêu là để mọi người có 'AI cá nhân' của riêng mình, thì sẽ cần các mô hình nhỏ chạy trên các thiết bị cá nhân của mọi người. Tôi hy vọng các công ty như Apple, những công ty có mô hình ưu tiên quyền riêng tư, sẽ tiếp tục thúc đẩy các thuật toán ngoại tuyến, không kết nối.
Nhưng Khlaaf cảnh báo rằng việc thay thế các mô hình lớn bằng các mô hình tinh gọn sẽ gây ra rủi ro về quyền riêng tư cá nhân, ảnh hưởng đến cả quân đội, vì việc tiết lộ dữ liệu cá nhân sẽ ảnh hưởng đến họ giống như đối với dân thường, khiến họ dễ bị nhắm mục tiêu, cưỡng ép, v.v.
Và việc dữ liệu cá nhân của người Mỹ bị tiết lộ rộng rãi tự nó là một lỗ hổng quốc gia mà kẻ thù có thể lợi dụng trong trường hợp xảy ra xung đột, như các nhà lãnh đạo quân sự đã chỉ ra. Nếu không có cải cách toàn diện để giúp cá nhân bảo vệ dữ liệu của mình tốt hơn, sự gia tăng của các mô hình nhỏ mạnh mẽ như DeepSeek có thể khiến xu hướng xấu trở nên tồi tệ hơn.
Khlaaf cho biết: “DeepSeek thách thức quan niệm cho rằng các mô hình quy mô lớn hơn luôn có hiệu suất cao hơn, điều này có ý nghĩa quan trọng do các lỗ hổng bảo mật và quyền riêng tư đi kèm với việc xây dựng các mô hình AI ở quy mô lớn”.
Đối với quyền riêng tư cá nhân, “các kỹ thuật chưng cất cho phép nén các mô hình lớn hơn thành các mô hình nhỏ hơn trong khi vẫn bảo toàn nhiều đặc tính của mô hình lớn hơn. Đối với những công dân có mô hình nền tảng được đào tạo trên dữ liệu của họ, tất cả các vấn đề về quyền riêng tư tương tự sẽ được duy trì trong các mô hình chưng cất của DeepSeek—chỉ khác là hiện không nằm trong phạm vi quyền hạn của Hoa Kỳ. Đó là lý do tại sao chúng tôi cảnh báo rằng việc đào tạo các mô hình AI trên dữ liệu nhạy cảm gây ra rủi ro an ninh quốc gia”.