
(SeaPRwire) – Vào năm 2025, chúng ta đã chứng kiến những tiến bộ lớn về khả năng của các hệ thống AI với sự ra mắt của các mô hình suy luận cũng như các khoản đầu tư lớn vào việc phát triển các mô hình tác nhân (agentic models).
AI đã và đang mang lại những lợi ích to lớn, tích cực giúp chúng ta giải quyết một số thách thức cấp bách nhất của thế giới, bao gồm việc tạo ra những tiến bộ đáng kể trong lĩnh vực y tế và khí hậu. Trong [chỗ trống], AI đặc biệt được sử dụng để giúp phát triển thuốc mới và cá nhân hóa các phương pháp điều trị. Các nhà nghiên cứu khí hậu cũng đang tận dụng AI để cải thiện mô hình thời tiết và tối ưu hóa hệ thống năng lượng tái tạo. Quan trọng hơn, nó có tiềm năng đạt được nhiều hơn nữa nếu [chỗ trống], thúc đẩy những đột phá hơn nữa và đẩy nhanh các tiến bộ trong tương lai trên nhiều lĩnh vực khoa học và công nghệ.
Bản chất biến đổi của AI cũng là lý do tại sao chúng ta phải xem xét các rủi ro của nó. Chúng ta đang thấy rằng sự tiến bộ nhanh chóng của công nghệ này cũng mang lại sự gia tăng các tác động bất lợi không mong muốn và các rủi ro tiềm ẩn, có thể lớn hơn nhiều nếu khả năng của AI tiếp tục phát triển với tốc độ hiện tại. Chẳng hạn, một số [nguồn tin] đã báo cáo vào mùa hè rằng các hệ thống AI tiên tiến đã vượt qua các ngưỡng mới liên quan đến rủi ro sinh học. Điều này phần lớn là do những tiến bộ đáng kể trong khả năng suy luận kể từ cuối năm 2024. Một mối lo ngại chính là, nếu không có các biện pháp bảo vệ đầy đủ, các mô hình này có khả năng cho phép những người không có chuyên môn sinh học thực hiện việc phát triển vũ khí sinh học tiềm ẩn nguy hiểm.
Sự tăng tốc của cùng một khả năng suy luận cũng làm tăng các mối đe dọa trong [lĩnh vực]. Khả năng ngày càng tăng của AI trong việc xác định các lỗ hổng bảo mật làm tăng đáng kể tiềm năng cho các cuộc tấn công mạng quy mô lớn, như chúng ta đã thấy trong [sự kiện] liên quan đến một cuộc tấn công lớn bị Anthropic chặn đứng và [báo cáo] cho thấy các AI tiên tiến lần đầu tiên phát hiện ra một số lượng lớn “zero-days”, hay các lỗ hổng phần mềm chưa từng được biết đến trước đây có thể bị khai thác trong các cuộc tấn công mạng. Ngay cả khi không có sự lạm dụng cố ý của các tác nhân xấu, các đánh giá và nghiên cứu cũng làm nổi bật các trường hợp hành vi lừa dối và tự bảo vệ xuất hiện trong các mô hình tiên tiến, cho thấy AI có thể đang phát triển các chiến lược xung đột với ý định hoặc sự giám sát của con người. Nhiều chuyên gia hàng đầu [cho rằng] các AI có thể trở nên mất kiểm soát và thoát khỏi sự kiểm soát của con người.
Các khả năng ngày càng có tác động lớn và sự sai lệch của các mô hình này cũng đã gây ra những hệ quả xã hội đáng lo ngại, đặc biệt là do tính nịnh hót của các mô hình, có thể dẫn đến việc người dùng hình thành sự gắn bó cảm xúc mạnh mẽ. Chẳng hạn, chúng ta đã thấy một phản ứng tiêu cực mạnh mẽ từ công chúng khi OpenAI chuyển từ mô hình GPT-4o sang GPT-5, và nhiều người dùng [cho biết] họ đã mất đi một “người bạn” vì mô hình mới ít ấm áp và dễ chịu hơn. Trong những trường hợp cực đoan, những sự gắn bó này có thể gây nguy hiểm cho sức khỏe tâm thần của người dùng, như chúng ta đã thấy trong các trường hợp bi thảm của [người dùng] dễ bị tổn thương hoặc những người khác sau khi mắc phải một loại “[tình trạng]”.
Đối mặt với quy mô và sự phức tạp của các mô hình này, với khả năng đã [được chứng minh là], chúng ta cần cả giải pháp chính sách và kỹ thuật để làm cho AI an toàn và bảo vệ công chúng. Công dân nên được thông tin và tham gia vào các luật và chính sách đang được thông qua tại chính quyền địa phương hoặc quốc gia của họ. Các lựa chọn được đưa ra cho tương lai của AI chắc chắn phải yêu cầu sự đồng thuận của công chúng và hành động tập thể vì chúng có thể ảnh hưởng đến tất cả chúng ta, với những hậu quả tiềm tàng cực đoan.
Từ góc độ kỹ thuật, có thể chúng ta đang tiến gần đến giới hạn của cách tiếp cận hiện tại đối với AI tiên tiến về cả khả năng và an toàn. Khi chúng ta xem xét các giai đoạn tiếp theo của phát triển AI, tôi tin rằng điều quan trọng là phải ưu tiên làm cho AI an toàn ngay từ khâu thiết kế, thay vì cố gắng vá lỗi các vấn đề an toàn sau khi các khả năng mạnh mẽ và tiềm ẩn nguy hiểm đã xuất hiện. Một cách tiếp cận như vậy, kết hợp khả năng và an toàn ngay từ đầu, là trọng tâm của những gì chúng tôi đang thực hiện tại Mila, tổ chức phi lợi nhuận mà tôi đã thành lập vào đầu năm nay, và tôi ngày càng lạc quan rằng các giải pháp kỹ thuật là khả thi.
Câu hỏi đặt ra là liệu chúng ta có phát triển được các giải pháp như vậy kịp thời để tránh những hậu quả thảm khốc hay không. Trí tuệ mang lại sức mạnh, có thể tập trung cao độ, và với sức mạnh lớn đi kèm với trách nhiệm lớn. Bởi vì mức độ của tất cả những rủi ro này, bao gồm cả những điều không biết, chúng ta sẽ cần sự khôn ngoan để gặt hái những lợi ích của AI trong khi giảm thiểu rủi ro của nó.
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.