Dark AI: Vũ khí mới của tội phạm mạng đe dọa người dùng Internet

20/08/2025 76

Dark AI là thuật ngữ dùng để mô tả những mô hình ngôn ngữ lớn hoặc các công cụ AI bị khai thác nằm ngoài tầm kiểm soát của các tổ chức phát triển hợp pháp.

Dark AI: Vũ khí mới của tội phạm mạng đe dọa người dùng Internet

Trong những năm gần đây, trí tuệ nhân tạo (AI) đã bùng nổ và nhanh chóng trở thành một trong những công nghệ mang tính cách mạng nhất của nhân loại. AI hiện diện trong hầu hết các lĩnh vực từ kinh doanh, y tế, giáo dục cho đến nghệ thuật và giải trí. Các mô hình ngôn ngữ lớn (LLMs) như ChatGPT, Gemini, Claude hay Copilot đã thay đổi cách con người tiếp cận tri thức, tối ưu hóa công việc và sáng tạo nội dung. Tuy nhiên, song song với những mặt tích cực đó, một mặt tối khác của AI cũng đang trỗi dậy. Giới chuyên gia gọi nó là Dark AI trí tuệ nhân tạo bị lạm dụng, bị biến tướng để phục vụ cho các hoạt động phi pháp, tội phạm mạng và chiến tranh thông tin.

Tại tuần lễ an ninh mạng tổ chức vào đầu tháng 8 ở Đà Nẵng, ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) của Kaspersky, đã đưa ra lời cảnh báo đầy sức nặng. Ông nhấn mạnh: “Chúng ta đang bước vào kỷ nguyên mới của an ninh mạng và xã hội, nơi AI đóng vai trò là tấm khiên để phòng thủ, còn Dark AI bị biến thành vũ khí nguy hiểm trong các cuộc tấn công mạng.”

Câu nói ấy không chỉ gióng lên hồi chuông cảnh báo mà còn cho thấy bức tranh an ninh mạng toàn cầu đang bước sang một giai đoạn vô cùng phức tạp. Dark AI không còn chỉ là một khái niệm mơ hồ, mà đã trở thành mối đe dọa thực sự, với sự xuất hiện của hàng loạt công cụ như WormGPT, FraudGPT, DarkBard hay Xanthorox.

1. Dark AI là gì và vì sao nguy hiểm?

Dark AI là thuật ngữ dùng để mô tả những mô hình ngôn ngữ lớn hoặc các công cụ AI bị khai thác nằm ngoài tầm kiểm soát của các tổ chức phát triển hợp pháp. Không giống các nền tảng chính thống như ChatGPT của OpenAI hay Gemini của Google vốn có lớp bảo mật, cơ chế lọc nội dung và quy định sử dụng nghiêm ngặt, Dark AI được thiết kế để phá bỏ mọi rào cản đạo đức. Chúng có thể được lập trình hoặc tùy biến để tạo ra mã độc, viết email lừa đảo thuyết phục hơn bất kỳ kẻ lừa đảo nào, sản xuất nội dung deepfake nhằm thao túng dư luận, thậm chí huấn luyện tin tặc cách xâm nhập hệ thống.

Mối nguy hiểm của Dark AI nằm ở chỗ nó không có “chốt chặn” đạo đức hay kỹ thuật. AI vốn chỉ là công cụ và nó sẽ thực hiện mọi yêu cầu từ phía người điều khiển. Khi một kẻ xấu sử dụng Dark AI, những gì họ có trong tay không khác gì một “trợ thủ ảo toàn năng” sẵn sàng phục vụ mọi mục đích bất hợp pháp. Nếu như trước đây, để tạo một mã độc tinh vi hay viết một chiến dịch lừa đảo email quy mô lớn, kẻ tấn công cần kỹ năng lập trình và nhiều thời gian nghiên cứu, thì giờ đây Dark AI có thể làm điều đó chỉ trong vài phút.

2. Sự trỗi dậy của Dark AI và những biến thể nguy hiểm

Sự xuất hiện của Dark AI gắn liền với làn sóng Black Hat GPT từ giữa năm 2023. Đây là những mô hình được “bẻ khóa”, chỉnh sửa hoặc huấn luyện lại với dữ liệu độc hại, nhằm mục đích phục vụ giới tội phạm mạng. Các biến thể nổi bật có thể kể đến:

WormGPT: Một trong những mô hình đầu tiên gây chấn động, được thiết kế chuyên biệt cho việc soạn email lừa đảo, tạo nội dung spam và sinh mã độc. WormGPT không có bất kỳ bộ lọc an toàn nào, cho phép kẻ tấn công yêu cầu nó viết đoạn mã phá hoại hoặc tạo kịch bản lừa đảo chi tiết.

FraudGPT: Như tên gọi, FraudGPT tập trung hỗ trợ các hoạt động gian lận tài chính. Nó có thể viết email giả mạo ngân hàng, hướng dẫn tạo trang web phishing hoặc tạo tài liệu giả mạo giống hệt thật.

DarkBard: Phiên bản biến tướng của Google Bard, bị tùy biến thành công cụ phát tán nội dung sai lệch và deepfake.

Xanthorox: Một mô hình được quảng bá trên các diễn đàn dark web, chuyên tạo script độc hại và hỗ trợ tấn công mô phỏng (red teaming) nhưng phục vụ cho mục đích xấu.

Những công cụ này lan truyền nhanh chóng trong cộng đồng hacker, đặc biệt là trên dark web, nơi chúng được rao bán theo hình thức “dịch vụ thuê AI độc hại” (Malware-as-a-Service). Chỉ cần trả phí thuê theo tháng hoặc mua trọn gói, bất kỳ ai, kể cả người không có kỹ năng kỹ thuật, cũng có thể tiếp cận và khai thác Dark AI.

3. Dark AI và mối đe dọa toàn cầu

Theo chuyên gia Sergey Lozhkin, Dark AI không chỉ dừng lại ở việc phục vụ tội phạm mạng cá nhân. Một số nhóm tin tặc có tổ chức, thậm chí là những nhóm được hậu thuẫn bởi chính phủ, cũng đang bắt đầu khai thác công nghệ này cho các chiến dịch phức tạp. Điều này đưa vấn đề Dark AI từ cấp độ tội phạm công nghệ thông thường lên mức độ an ninh quốc gia và an ninh quốc tế.

OpenAI từng công bố rằng họ đã ngăn chặn hơn 20 chiến dịch lợi dụng công cụ AI để thực hiện tấn công mạng và lan truyền thông tin sai lệch. Trong những chiến dịch đó, kẻ xấu có thể sản xuất hàng loạt bài viết giả mạo bằng nhiều ngôn ngữ khác nhau, vượt qua những hệ thống kiểm duyệt thông thường, từ đó dễ dàng gieo rắc sự hoang mang và gây chia rẽ trong cộng đồng.

Ở góc độ an ninh mạng, điều này tạo ra một kịch bản đáng lo ngại: những kẻ tấn công giờ đây không chỉ tấn công hệ thống bằng kỹ thuật, mà còn tấn công con người bằng thông tin giả mạo, được sản xuất và khuếch tán với tốc độ chưa từng có.

4. Thực trạng tại Việt Nam

Trong bức tranh toàn cầu ấy, Việt Nam cũng không nằm ngoài vòng xoáy. Theo báo cáo An ninh mạng năm 2025 của Cisco, có đến 62% tổ chức tại Việt Nam thừa nhận họ thiếu tự tin trong việc phát hiện nhân viên sử dụng AI ngoài tầm kiểm soát. Đây chính là hiện tượng Shadow AI, khi nhân viên tự ý dùng công cụ AI trong công việc mà không có sự giám sát hay chính sách rõ ràng từ bộ phận công nghệ thông tin.

Điều này vô tình mở ra cánh cửa cho rủi ro. Một nhân viên có thể sao chép dữ liệu quan trọng và đưa vào một mô hình AI công cộng để xử lý mà không biết rằng dữ liệu đó đang bị lưu trữ ở đâu hoặc có thể bị khai thác ra sao. Cùng lúc, theo khảo sát, dù 44% nhân viên trong các tổ chức Việt Nam dùng công cụ GenAI được phê duyệt, thì vẫn có đến 40% bộ phận CNTT thừa nhận không nắm rõ cách nhân viên của họ tương tác với AI.

Nếu như Dark AI là hiểm họa từ bên ngoài, thì Shadow AI lại là mối nguy âm thầm từ bên trong. Kết hợp cả hai yếu tố này, bức tranh an ninh mạng Việt Nam trong kỷ nguyên AI trở nên phức tạp và đầy rẫy thách thức.

5. AI không tự phân biệt đúng sai

Một điểm cần nhấn mạnh, như ông Lozhkin đã nói: “AI vốn không tự phân biệt đúng sai, nó chỉ làm theo chỉ dẫn.” Đây chính là yếu tố cốt lõi khiến AI vừa có thể trở thành công cụ hữu ích, vừa có thể biến thành vũ khí nguy hiểm.

Trí tuệ nhân tạo không có khái niệm đạo đức mà chỉ biết xử lý thông tin và đưa ra kết quả theo yêu cầu. Những gì quyết định bản chất của AI chính là mục đích của người sử dụng nó. Nếu được huấn luyện và vận hành trong môi trường lành mạnh, AI sẽ mang lại lợi ích to lớn. Nhưng khi rơi vào tay kẻ xấu, AI có thể trở thành “trợ thủ đắc lực” cho các hành vi phi pháp.

Điều này đặt ra trách nhiệm lớn cho cộng đồng phát triển công nghệ: làm sao để thiết kế những cơ chế kiểm soát đủ mạnh, đồng thời nâng cao nhận thức xã hội để người dùng không dễ bị dụ dỗ bởi những công cụ Dark AI.

6. Giải pháp đối phó với Dark AI

Trước những nguy cơ ngày càng gia tăng, các chuyên gia an ninh mạng như Kaspersky đã đưa ra nhiều khuyến nghị. Một trong những biện pháp quan trọng nhất là siết chặt kiểm soát truy cập và đào tạo nhân viên. Nhân sự trong tổ chức cần được trang bị kiến thức để nhận biết rủi ro khi dùng AI, cũng như hiểu rõ về chính sách bảo mật dữ liệu.

Ngoài ra, các tổ chức cần đầu tư vào trung tâm điều hành an ninh mạng (SOC), nơi có khả năng giám sát và phát hiện mối đe dọa trong thời gian thực. Bên cạnh đó, việc triển khai các giải pháp bảo mật thế hệ mới tích hợp khả năng phát hiện tấn công do AI hỗ trợ cũng là xu hướng tất yếu.

Đối với cá nhân, việc nâng cao ý thức cảnh giác là yếu tố then chốt. Người dùng cần nhận biết rằng email, tin nhắn hay video mà họ thấy trên mạng có thể không phải do con người tạo ra mà có thể là sản phẩm của Dark AI. Kỹ năng kiểm chứng thông tin, tư duy phản biện và sự thận trọng trong chia sẻ dữ liệu cá nhân sẽ là “lá chắn” thiết yếu.

7. Tương lai của Dark AI 

Không ít chuyên gia cho rằng, Dark AI sẽ tiếp tục phát triển song song với AI chính thống. Bất kỳ công nghệ nào cũng có mặt tốt và xấu và lịch sử đã chứng minh rằng không thể triệt tiêu hoàn toàn mặt tối. Vấn đề là xã hội sẽ quản lý và đối phó với nó ra sao.

Một số kịch bản tương lai có thể xảy ra:

Dark AI trở thành công cụ chiến tranh mạng: Các quốc gia có thể phát triển AI cho mục đích quân sự, bao gồm cả tấn công hạ tầng trọng yếu của đối phương.

Bùng nổ deepfake quy mô lớn: Những video, hình ảnh giả mạo tinh vi đến mức không thể phân biệt thật giả, gây ra khủng hoảng niềm tin trong xã hội.

AI hỗ trợ tội phạm cá nhân: Những kẻ lừa đảo nhỏ lẻ cũng có thể dùng Dark AI để tiếp cận hàng nghìn nạn nhân cùng lúc, khiến thiệt hại nhân rộng.

Cạnh tranh kiểm soát AI: Các tập đoàn công nghệ và chính phủ có thể chạy đua trong việc xây dựng hệ thống quản lý, dẫn đến xung đột lợi ích.

Trong tất cả các kịch bản ấy, điểm chung là sự cần thiết của một hệ thống pháp lý quốc tế và những chuẩn mực toàn cầu về đạo đức AI.

8. Kết luận

Dark AI không chỉ là một thuật ngữ kỹ thuật mà là biểu tượng cho mặt tối của tiến bộ công nghệ. Nó cho thấy rằng mỗi bước tiến của nhân loại luôn đi kèm với những thách thức mới. Khi AI trở thành một phần không thể thiếu của đời sống, việc ngăn chặn sự biến tướng của nó càng trở nên cấp thiết. Để đối phó, không chỉ các tổ chức an ninh mạng hay chính phủ phải hành động mà từng cá nhân cũng cần có trách nhiệm trong việc sử dụng AI một cách an toàn và có đạo đức. Như một con dao hai lưỡi, AI có thể là công cụ cứu người hoặc vũ khí hủy diệt, tất cả phụ thuộc vào cách chúng ta lựa chọn. Trong kỷ nguyên số, nơi Dark AI đang trỗi dậy mạnh mẽ, sự tỉnh táo và hợp tác toàn cầu sẽ là chìa khóa để nhân loại biến AI thành tấm khiên bảo vệ, thay vì vũ khí tự hủy hoại mình.

 
 
Hotline

0868 33 9999
Hotline
Hotline
Xác nhận Reset Key/ Đổi Máy

Bạn có chắc chắn muốn Reset Key/ Đổi Máy trên Key này không?

Máy tính đã kích hoạt Key này sẽ bị gỡ và bạn dùng Key này để kích hoạt trên máy tính bất kỳ.