Một mô hình trí tuệ nhân tạo (AI) là gì? Về bản chất, đó là “bộ não” được xây dựng từ các thuật toán và mô hình toán học, được huấn luyện trên khối lượng dữ liệu khổng lồ. Nhờ đó, máy có khả năng “học” từ dữ liệu quá khứ, phân tích thông tin hiện tại và đưa ra những kết quả mới: từ văn bản, hình ảnh đến video, giọng nói...
Tùy vào loại đầu vào – đầu ra, các mô hình AI hiện nay có thể chia thành nhiều nhóm: từ text-to-text như ChatGPT, Gemini; text-to-image như Midjourney, DALL·E; cho đến các mô hình phức tạp hơn như text-to-video với những cái tên đang gây chấn động cộng đồng công nghệ toàn cầu như Sora (OpenAI) hay Veo 3 (Google DeepMind).
Với Veo 3, một mô tả vài dòng cũng đủ để AI tạo nên một đoạn phim chân thực với cảnh quay, ánh sáng, chuyển động giống như sản phẩm của một đạo diễn chuyên nghiệp. Đây không còn là “công cụ hỗ trợ” mà đang dần trở thành một “thế lực sáng tạo” đầy quyền năng – và tiềm ẩn không ít rủi ro.
Việc tạo ra video trở nên dễ như viết một đoạn văn, khiến mạng xã hội đang ngập tràn những sản phẩm AI “câu view”: từ video dung tục, giật gân đến clip xuyên tạc lịch sử, giả mạo người nổi tiếng, lãnh đạo hoặc thông tin công cộng. Deepfake – công nghệ giả mạo giọng nói, hình ảnh – tuy không mới, nhưng nay có thể được thực hiện chỉ trong vài phút, bằng công cụ AI phổ thông, không cần kỹ năng đặc biệt.
Hệ quả là gì? Là sự phá hoại danh tiếng cá nhân, là các vụ lừa đảo trực tuyến tinh vi, là việc thao túng dư luận theo hướng sai lệch, phá vỡ trật tự xã hội. Đặc biệt nguy hiểm với trẻ em và thanh thiếu niên – nhóm đối tượng thường xuyên sử dụng mạng xã hội nhưng thiếu kỹ năng nhận diện thông tin thật – giả. Một cú click, một cái share tưởng như vô hại, có thể gieo vào đầu một đứa trẻ những ngờ vực sai lệch về cuộc sống, xã hội và giá trị.
Một trong những nghịch lý lớn nhất hiện nay là: công nghệ phát triển từng giờ, nhưng luật pháp – quản lý nhà nước – lại vẫn đang chậm vài nhịp. Điều này tạo ra những khoảng trống pháp lý nguy hiểm, khiến cả nhà phát triển, người dùng và cơ quan quản lý đều… loay hoay. Giải pháp là gì?
Trước tiên, như khuyến nghị của Ủy ban Đạo đức AI – VINASA, cần sớm xây dựng Bộ quy chuẩn đạo đức AI, để định hình giới hạn hành vi chấp nhận được với cả nhà phát triển lẫn người sử dụng. Không thể nói “AI làm sai” nếu con người đứng sau không bị ràng buộc bởi một hệ tiêu chuẩn đạo đức công nghệ rõ ràng.
Tiếp theo là việc xây dựng hệ ngôn ngữ dữ liệu mở chuẩn quốc gia, để các mô hình AI tại Việt Nam tuân thủ được yếu tố chính trị – văn hóa – pháp lý đặc thù. Đây không chỉ là yêu cầu quản trị dữ liệu, mà còn là nền móng cho chủ quyền số.
Một sáng kiến đáng chú ý khác là phân loại và dán nhãn sản phẩm AI, giống như phim ảnh hay trò chơi điện tử. Việc dán nhãn – từ mức độ can thiệp AI (một phần – toàn phần) cho tới loại nội dung – sẽ giúp người dùng cảnh giác, hiểu rõ mình đang tiếp xúc với cái gì, từ đâu và mức độ tin cậy ra sao.
Cuối cùng, nhưng quan trọng bậc nhất: giáo dục kỹ năng số cho toàn dân, nhất là học sinh – sinh viên, cán bộ quản lý và người cao tuổi. AI sẽ không dừng lại, không chờ ta kịp thích nghi. Vậy chỉ có một con đường: học, hiểu và cùng nhau tạo ra một cộng đồng số có khả năng tự bảo vệ mình trước “sóng gió ảo”.
Trong mọi cuộc cách mạng công nghệ, sự kiểm soát luôn đến sau sự phát triển. Nhưng nếu chúng ta không hành động sớm, không xây dựng hành lang pháp lý và đạo đức đủ mạnh, thì AI – thay vì là người bạn đồng hành – có thể trở thành con ngựa bất kham kéo cả xã hội trượt khỏi đường ray của sự thật.
Không thể kiểm soát AI bằng cảm xúc. Chúng ta cần chính sách cụ thể, pháp luật chặt chẽ, công nghệ phòng ngừa đi trước và kỹ năng nhận diện lan rộng. Và trên tất cả, là một tinh thần cảnh giác chủ động – biết cách khai thác trí tuệ nhân tạo, nhưng không để nó điều khiển nhận thức thật của con người.
Với Kế hoạch hành động “Vì một lục địa trí tuệ nhân tạo” được công bố đầu tháng 4/2025, Liên minh châu Âu (EU) đang thể hiện tham vọng mạnh mẽ trở thành trung tâm phát triển AI hàng đầu thế giới, sánh ngang với Mỹ và Trung Quốc trong cuộc đua công nghệ đang ngày càng nóng lên.