Trong kỷ nguyên số, dữ liệu cá nhân đã trở thành một loại “vàng” mới của thời đại. Bất kỳ thông tin nào bạn chia sẻ trực tuyến, dù là trong email, trên mạng xã hội hay trong một ứng dụng trò chuyện, đều có thể bị lưu trữ, phân tích và đôi khi bị tiết lộ ra bên ngoài mà bạn không hề hay biết. Đặc biệt, với sự bùng nổ của trí tuệ nhân tạo, những công cụ như ChatGPT đang được hàng trăm triệu người sử dụng mỗi tháng, mang đến sự tiện lợi và khả năng trò chuyện gần như tự nhiên như con người. Nhưng bên cạnh lợi ích, chúng cũng tiềm ẩn những nguy cơ bảo mật mà nhiều người vẫn còn chủ quan.
Một trong những rủi ro mới được cộng đồng bảo mật đặc biệt quan tâm gần đây là việc các cuộc trò chuyện của người dùng ChatGPT không chỉ được sử dụng để huấn luyện AI mà còn có thể xuất hiện ngay trên kết quả tìm kiếm Google. Điều này không chỉ là một mối phiền toái nhỏ mà trong nhiều trường hợp, có thể trở thành một “quả bom” thông tin cá nhân gây ra những hậu quả khó lường.
Trong suy nghĩ của phần lớn người dùng, ChatGPT là một “người bạn” ảo đáng tin cậy, nơi họ có thể tự do đặt câu hỏi hoặc chia sẻ những điều khó nói mà không lo bị phán xét. Cảm giác riêng tư này bắt nguồn từ giao diện đơn giản, không gian trò chuyện “một-một” và cách AI phản hồi như thể nó chỉ tồn tại để phục vụ bạn. Thế nhưng, theo cảnh báo mới đây của chuyên gia bảo mật Caitlin Sarian, niềm tin này có thể chỉ là ảo tưởng.
Caitlin, người điều hành tài khoản Instagram @cybersecuritygirl, đã tiết lộ một thông tin gây chấn động: các cuộc trò chuyện của bạn với ChatGPT không chỉ được dùng để cải thiện khả năng của AI mà trong một số trường hợp còn bị lập chỉ mục và hiển thị công khai trên Google. Nói cách khác, những gì bạn tưởng rằng “riêng tư” thực chất có thể đang đứng trước hàng triệu cặp mắt trên internet.
Việc lập chỉ mục này có nghĩa là nếu một phần hoặc toàn bộ nội dung trò chuyện của bạn được hệ thống lưu lại mà không được bảo vệ hoặc giới hạn quyền truy cập, thì chỉ cần một vài thao tác tìm kiếm, bất kỳ ai từ đồng nghiệp, bạn bè, người thân cho đến nhà tuyển dụng đều có thể nhìn thấy. Không cần phải là hacker, chỉ một người quen tình cờ gõ tên bạn vào Google cũng đủ để họ đọc được những gì bạn từng chia sẻ với ChatGPT.
Hãy thử đặt mình vào tình huống: bạn từng hỏi ChatGPT về kế hoạch nghỉ việc, xin gợi ý cho một bức thư chia tay đồng nghiệp, hoặc tâm sự về những mâu thuẫn trong hôn nhân. Có thể bạn còn chia sẻ thông tin tài chính cá nhân như mức lương, khoản nợ, hay dự định đầu tư. Và rồi, một ngày bạn phát hiện toàn bộ đoạn hội thoại đó xuất hiện công khai trên Google, không chỉ bạn thấy mà bất cứ ai tìm kiếm cũng có thể tiếp cận. Từ một cuộc trò chuyện vô tư, tình huống này có thể biến thành thảm họa truyền thông cá nhân, làm tổn hại danh tiếng, phá vỡ các mối quan hệ và thậm chí khiến sự nghiệp của bạn gặp nguy hiểm.
Điều đáng lo ngại là hậu quả của việc bị lộ thông tin không chỉ dừng lại ở cảm giác xấu hổ. Với các dữ liệu nhạy cảm, nguy cơ có thể leo thang đến mức mất mát tài chính, bị tấn công mạng, hoặc rơi vào tình huống pháp lý phức tạp.
Các chuyên gia an ninh mạng đã nhiều lần cảnh báo rằng trong thời đại dữ liệu, chỉ một mẩu thông tin nhỏ cũng có thể trở nên cực kỳ nguy hiểm nếu bị đặt vào đúng (hay sai) bối cảnh. Một câu nói tưởng như vô thưởng vô phạt, khi kết hợp với những dữ liệu có sẵn trên mạng, có thể đủ để xác định danh tính hoặc thói quen sinh hoạt của bạn. Đây là nguyên tắc mà giới hacker gọi là OSINT.
Ví dụ, bạn vô tình chia sẻ với ChatGPT rằng mình sẽ xin nghỉ phép hai tuần vào tháng tới và hỏi gợi ý về lịch trình du lịch. Nếu kẻ xấu tìm thấy thông tin này, kết hợp với dữ liệu từ LinkedIn hoặc Facebook cho thấy bạn sống một mình, thì đó chẳng khác gì lời mời gọi cho những vụ trộm cắp. Hoặc, bạn chia sẻ ý tưởng kinh doanh còn đang trong giai đoạn nghiên cứu. Một đối thủ tiềm năng có thể dễ dàng tiếp cận, “mượn” ý tưởng đó và tung sản phẩm ra thị trường trước bạn.
Trong một số trường hợp nghiêm trọng hơn, thông tin bị lộ có thể trở thành vũ khí tống tiền. Nếu bạn từng chia sẻ điều gì nhạy cảm liên quan đến đời sống cá nhân, sức khỏe tâm thần hoặc vấn đề pháp lý, những kẻ xấu có thể sử dụng nó để đe dọa, gây áp lực hoặc bôi nhọ hình ảnh của bạn trước công chúng.
Chính vì vậy, khoảng cách từ một chút ngượng ngùng đến một thảm họa toàn diện đôi khi chỉ cách nhau một lần tìm kiếm trên Google.
May mắn là việc kiểm tra không quá khó. Caitlin đã đưa ra một hướng dẫn rất cụ thể: mở Google và tìm kiếm tên của bạn, kết hợp với cú pháp tìm kiếm nâng cao site:chat.openai.com. Cú pháp này ra lệnh cho Google chỉ hiển thị các kết quả nằm trong tên miền của ChatGPT, tức là các trang có thể chứa bản ghi cuộc trò chuyện của bạn.
Khi thực hiện tìm kiếm, bạn cần chú ý đến tiêu đề và phần trích dẫn nội dung mà Google hiển thị. Nếu xuất hiện những đoạn văn bản trùng khớp hoặc rất giống với các cuộc trò chuyện bạn từng thực hiện, đặc biệt là các nội dung mang tính cá nhân hoặc bí mật, thì đó là tín hiệu rõ ràng cho thấy dữ liệu của bạn đang công khai.
Trong trường hợp phát hiện dữ liệu bị lộ, bạn có thể thực hiện hai bước:
· Thứ nhất, xóa trực tiếp các đoạn hội thoại trong tài khoản ChatGPT để chặn nguồn.
· Thứ hai, yêu cầu Google gỡ bỏ các kết quả này khỏi chỉ mục tìm kiếm thông qua công cụ Remove Outdated Content.
Cần lưu ý rằng việc Google gỡ bỏ kết quả không phải lúc nào cũng ngay lập tức và đôi khi nếu nội dung vẫn tồn tại công khai ở nguồn gốc, nó có thể xuất hiện trở lại. Do đó, giải pháp bền vững là kết hợp cả việc xóa dữ liệu tận gốc trên ChatGPT và đề nghị Google xóa bản lưu tạm.
Caitlin khuyên rằng người dùng nên chủ động thiết lập quyền riêng tư ngay từ khi bắt đầu sử dụng. Trong ChatGPT, bạn có thể truy cập Cài đặt (Settings), tìm tới mục Điều khiển dữ liệu (Data Controls) và tắt tùy chọn Lịch sử trò chuyện và huấn luyện (Chat History & Training). Khi chế độ này bị tắt, ChatGPT sẽ không lưu trữ các đoạn hội thoại mới để huấn luyện mô hình, đồng nghĩa với việc giảm thiểu khả năng dữ liệu bị đưa ra ngoài.
Tuy nhiên, đây mới chỉ là bước phòng ngừa cho tương lai. Với những dữ liệu cũ đã tồn tại, cách duy nhất để đảm bảo an toàn là xóa thủ công từng cuộc trò chuyện. Bạn chỉ cần di chuột vào tiêu đề cuộc trò chuyện trong danh sách bên trái, nhấn biểu tượng thùng rác và xác nhận.
Điều đáng nói là nhiều người thường chủ quan bỏ qua bước này vì nghĩ rằng nếu họ không chia sẻ đường link hoặc nếu cuộc trò chuyện không có thông tin nhạy cảm thì không sao. Trên thực tế, dữ liệu vẫn có thể tồn tại trong bộ nhớ tạm hoặc đã bị lập chỉ mục trước khi bạn kịp để ý. Và một khi đã được lưu trong các bộ nhớ đệm của công cụ tìm kiếm, việc xóa bỏ hoàn toàn sẽ trở nên rất khó khăn.
Vì vậy, việc chủ động quản lý và thường xuyên dọn dẹp lịch sử trò chuyện không chỉ giúp bạn bảo vệ thông tin nhạy cảm mà còn giữ cho không gian làm việc với AI gọn gàng, tối ưu hơn.
Một trong những lời khuyên quan trọng nhất mà Caitlin đưa ra là hãy luôn giả định rằng mọi thứ bạn nhập vào ChatGPT đều có khả năng bị lưu trữ và chia sẻ. Cô so sánh việc trò chuyện với AI giống như việc đăng bài trên một diễn đàn công cộng, ngay cả khi giao diện và trải nghiệm khiến bạn cảm thấy đây là một cuộc trò chuyện riêng tư.
Điều này có nghĩa là, thay vì gửi toàn bộ thông tin thật của mình, bạn nên sử dụng dữ liệu giả lập hoặc ẩn danh khi cần nhờ ChatGPT xử lý các tình huống nhạy cảm. Nếu bạn cần hỏi về hợp đồng lao động, đừng nhập nguyên văn hợp đồng thật mà hãy thay thế tên, số liệu và chi tiết nhận dạng bằng thông tin hư cấu. Nguyên tắc này vừa giúp bạn nhận được câu trả lời từ AI, vừa bảo vệ an toàn dữ liệu gốc.
Sam Altman (Giám đốc điều hành OpenAI) cũng thừa nhận rằng đây là một vấn đề đáng quan tâm. Ông đã kêu gọi cần có những biện pháp bảo vệ pháp lý tương tự như cách luật pháp bảo vệ sự bí mật giữa bệnh nhân và bác sĩ tâm lý đối với các cuộc trò chuyện trên ChatGPT. Lý do là ngày càng nhiều người trẻ tìm đến ChatGPT không chỉ để tra cứu thông tin mà còn để tâm sự, tìm lời khuyên về sức khỏe tinh thần, các vấn đề cá nhân hoặc thậm chí là định hướng cuộc sống.
Trong một cuộc phỏng vấn với Theo Von trên podcast This Past Weekend, Altman bày tỏ lo ngại rằng nếu hệ thống pháp lý không bảo vệ những dữ liệu này, người dùng có thể bị tổn hại nghiêm trọng. Ông nêu ví dụ: nếu bạn chia sẻ những điều nhạy cảm nhất của mình với ChatGPT và sau đó liên quan tới một vụ kiện, tòa án có thể yêu cầu OpenAI cung cấp bản ghi trò chuyện. Theo ông, điều đó là “rất sai trái” và cần phải thay đổi.
Câu chuyện mà Caitlin Sarian đưa ra là một lời cảnh báo quan trọng trong bối cảnh AI đang len lỏi vào mọi lĩnh vực đời sống. Nó nhắc chúng ta rằng quyền riêng tư trên môi trường số không bao giờ là tuyệt đối. Ngay cả khi bạn nghĩ mình đang ở trong một “phòng kín” để trò chuyện với máy, thì vẫn luôn tồn tại khả năng thông tin bị lọt ra ngoài.
Để bảo vệ bản thân, người dùng cần chủ động kiểm soát cài đặt quyền riêng tư, xóa dữ liệu nhạy cảm và luôn giữ thói quen “tự kiểm duyệt” trước khi nhập bất kỳ thông tin cá nhân nào vào hệ thống AI. Đồng thời, cần có sự thay đổi từ phía các công ty công nghệ và cơ quan lập pháp, nhằm đưa ra những tiêu chuẩn bảo vệ dữ liệu mạnh mẽ hơn, đặc biệt với các nền tảng AI hội thoại.
Bởi một khi dữ liệu đã được lập chỉ mục và xuất hiện trên Google, việc xóa bỏ hoàn toàn gần như là bất khả thi. Trong thế giới số, “phòng bệnh hơn chữa bệnh” không chỉ là câu nói cũ mà là nguyên tắc sống còn.
Bạn có chắc chắn muốn Reset Key/ Đổi Máy trên Key này không?
Máy tính đã kích hoạt Key này sẽ bị gỡ và bạn dùng Key này để kích hoạt trên máy tính bất kỳ.