
19:50 - 11/02/2026
Lộng giả thành chân, lộng chân thành giả
Con người đã nỗ lực huấn luyện máy tính bắt chước con người một cách chân thật nhất, “người nhất” từ giữa thế kỷ trước. Sự trỗi dậy của AI và công nghệ deepfake trong thập niên 2020 đã xóa nhòa ranh giới thật và giả. Lúc này, máy tính lại trớ trêu hỏi ngược “hãy chứng minh bạn là người”.
Con người buộc phải thay đổi hành vi để chống lại sự giả dối, lừa gạt của máy tính và trí thông minh nhân tạo. Nhưng đó lại là tiền đề của cuộc cách mạng công nghệ mới.
Hany Farid là giáo sư công nghệ máy tính, đồng thời là chuyên gia phân tích hình ảnh và pháp y kỹ thuật số tại Đại học California ở Berkeley. Năm 2023, một trợ lý của ông Barack Obama đã gọi Farid, mời ông trao đổi với cựu tổng thống về công nghệ deepfake. Suốt cuộc gọi, Farid không tin rằng ông đang trao đổi với một Obama bằng xương bằng thịt. “Tôi ngờ đó là deepfake. Nhiều lần tôi định buột miệng “Hãy đưa tay che mặt” với người đang trò chuyện qua video call”.
Thời điểm đó, một trong những cách nhận diện deepfake là yêu cầu ai đó vẫy tay trước mặt. Hình ảnh trên màn hình sẽ bị biến dạng, vụ gian lận sẽ bị lật tẩy. Nhưng Farid không thể nào nhìn thẳng vào Obama qua màn hình và thốt lên câu nào. “Suốt cuộc gọi mười phút, tôi cứ hỏi mình có đang bị trêu chọc”, Farid kể lại.
Sự phát triển của công nghệ deepfake hiện đã vượt qua sự tưởng tượng của con người. Trong cuộc video call gần đây với Bloomberg Businessweek, Farid đã thay gương mặt ông bằng gương mặt của CEO Sam Altman của OpenAI. Có một chút độ trễ giữa giọng nói và hình ảnh, một chút vô hồn trong ánh mắt, nhưng Farid có thể giả vờ gãi má và chiếu đèn pin vào đầu mình để che giấu.
Phép thử Turing
Con người đã nỗ lực để máy móc có thể bắt chước các hành vi giống con người nhất kể từ năm 1950, khi Alan Turing (1912-1954) – nhà toán học người Anh, cha đẻ của máy tính hiện đại và AI – đề xuất bài kiểm tra mà ông gọi là “trò chơi bắt chước”. Trong bài kiểm tra mà ngày nay gọi là “Turing test”, một giám khảo sẽ có một cuộc hội thoại bằng văn bản với máy và một con người bằng xương thật. Vị giám khảo sau đó cố gắng đoán xem đâu là người và đâu là máy, và “ai” có thể đánh lừa ông.
Hàng chục năm sau, các trang web thường xuyên yêu cầu người dùng chứng minh “bạn là con người” bằng cách điền captcha (*) – một dòng chữ cái và con số. Con người vượt qua dễ dàng, nhưng máy tính lại gặp khó khăn. Máy móc cũng có thể yêu cầu người dùng nhận diện các ô ảnh khác nhau.
Sự ra đời của các mô hình ngôn ngữ lớn (LLM) đã vượt qua các bài test đó. Các nghiên cứu chỉ ra rằng, với sự hướng dẫn cẩn thận, các tác nhân AI có thể giải quyết các captcha phức tạp. Một nghiên cứu gần đây với 126 người tham gia đã chỉ ra rằng một số mô hình LLM đã đoán rằng GPT-4.5 của OpenAI là người thật trong 73% trường hợp.
Nhận diện deepfake lừa đảo?
Với deepfake, ai cũng có thể bị lừa trong thế giới trực tuyến.
Tháng 6/2025, có người dùng deepfake trên tài khoản Signal để giả giọng nói Ngoại trưởng Marco Rubio của Mỹ để trao đổi với các quan chức Mỹ và ba bộ trưởng ngoại giao các nước. Năm 2024, một băng lừa đảo đã dùng deepfake để giả giám đốc tài chính của một tập đoàn đa quốc gia ở Hồng Kông để gạt nhân viên ở đây gửi đi 25 triệu USD.
Các tổ chức và cá nhân phải đang tự nghĩ ra các Turing test riêng để nhận diện lừa đảo. Khi máy móc ngày càng giỏi hơn trong việc bắt chước con người, con người phải thay đổi hành xử. Từng tự hào với biệt danh “nữ hoàng dấu gạch ngang”, Elizabeth Zaborowska đã cấm toàn bộ nhân viên công ty PR Bhava Communications của cô sử dụng ký tự dấu gạch ngang dài (em dash) vào mùa xuân 2025. Bởi ChatGPT quá lạm dụng dấu em dash, khiến nó trở thành dấu hiệu “đây là văn bản do AI tạo ra”. Để tránh bị khách hàng đánh đồng với các công cụ chatbot giá rẻ, Zaborowska đành chấp nhận từ bỏ phong cách viết mà bà cho là “trang nhã”.
Trong khi đó, copywriter Sarah Suzuki Harvard nói rằng nỗ lực soi xét văn bản có do AI tạo ra hiện nay hay không là “cuộc săn phù thủy”. Bà lập luận rằng những dấu hiệu “cờ đỏ” báo rõ đây là tác phẩm của AI thực chất là thói quen viết lách của con người mà máy tính đã học được. “Chúng ta tạo ra máy móc, và chúng đang đạo văn từ chính chúng ta”.
Trách nhiệm thuộc về con người
Trách nhiệm chứng minh chúng ta là con người cuối cùng vẫn thuộc về con người. Rõ nhất là trường đại học, giáo sư và giảng viên đang sử dụng Reddit để trao đổi cách thức “bắt quả tang” sinh viên gian lận bằng ChatGPT, và ngược lại, sinh viên lên TikTok để ta thán chuyện bị quy kết là dùng AI để làm bài. Còn các biên tập viên Wikipedia đã nỗ lực loại bỏ các mục do AI tạo ra, quét trang web để tìm những dấu hiệu rõ ràng, chẳng hạn như trích dẫn giả mạo hay không tồn tại, hoặc những dấu hiệu ít rõ ràng như AI thường lạm dụng cụm từ “delve into” – tức là đào sâu, nghiên cứu hay tìm tòi – thay vì những từ đơn giản hơn như examine hay look into.
Nhưng mục tiêu không phải là “nhổ cỏ tận gốc” mọi nội dung do AI tạo ra trên Wikipedia, theo lời Ilyas Lebleu, thành viên sáng lập của nhóm biên tập WikiProject AI Cleanup. “Nếu thông tin chính xác và có trích dẫn xác thực thì tốt. Vấn đề lớn nhất là nội dung do AI tạo ra chưa được kiểm duyệt”.
Trong lĩnh vực tuyển dụng, AI tạo sinh (GenAI) có thể giúp tạo ra một đơn xin việc hoàn hảo chỉ bằng một cú nhấp chuột, khiến bộ phận nhân sự phải vùi đầu trong đống hồ sơ tuyển dụng. CEO Kyle Arteaga của công ty truyền thông Bulleit Group có trụ sở tại Seattle, nói mỗi vị trí tuyển dụng có hàng ngàn hồ sơ nộp và Bulleit phải phỏng vấn các ứng viên không nhớ là họ đã sử dụng AI đến mức nào. Bulleit đã cố tình “bẫy” AI trong các thông báo tuyển dụng, chẳng hạn hỏi người xin việc thuộc tính cách “nhà nào” hay cánh nào trường phù thủy Hogwarts của truyện tranh Harry Potter. Trong một tin tuyển dụng mới đây, Arteaga nói chưa đến 3% trong số hơn 900 người nộp đơn đã làm theo hướng dẫn, làm giảm đáng kể số lượng ứng viên.
Để giảm thiểu rủi ro bị AI qua mặt, nhiều người đang chuyển sang một loạt các phương án mà Farid gọi là “giải pháp tương tự”.
CEO Sam Altman của OpenAI gần đây đã khuyên mọi người đặt ra “mật mã” bí mật trong giao tiếp chẳng hạn. Cuối năm 2024, Ngân hàng Starling có trụ sở tại Anh đã tung ra một chiến dịch tiếp thị khuyến khích khách hàng làm điều tương tự. Khoảng 82% khách hàng đã xem thông điệp của Starling nói sẽ làm theo lời khuyên.
Một số khác đang áp dụng những câu hỏi mẹo quen thuộc để xác nhận “đâu là người, đâu là máy” trên mạng. Pranava Adduri, nhà đồng sáng lập và giám đốc công nghệ của hãng bảo mật Bedrock Data Inc. có trụ sở tại Menlo Park tại California kể rằng ông đã hỏi một nhân viên chăm sóc khách hàng định nghĩa về Navier-Stokes, một tập hợp các phương trình toán học mô tả chuyển động của chất lỏng nhớt. Thường thì chatbot nào được đào tạo bài bản cũng có thể trả lời trơn tru, nhưng nhân viên đó chỉ trả lời “Tôi không biết”. Và Adduri ồ lên “đây là người thật”.
Các hãng đại công nghệ đang khôi phục lại các cuộc phỏng vấn đối mặt, và dĩ nhiên chatbot không thể tham dự. Nhưng Google và các tập đoàn lớn khác có những lý do chính đáng khác để gặp gỡ trực tiếp các ứng viên. FBI cũng nói rằng đây là cách ngăn chặn hữu hiệu các chuyên gia công nghệ thông tin từ các đất nước không thân thiện làm việc từ xa.
“Không có gì là bí mật với những ứng viên giả mạo ngoài kia. Chúng tôi đã bổ sung xác minh sinh trắc học vào quá trình tuyển dụng”, Kelly Jones, giám đốc nhân sự của Cisco Systems Inc., cho biết.
Nền kinh tế giải pháp công nghệ mới
Nhu cầu xác thực “tính người” ngày càng gia tăng, dẫn đến sự hình thành nền kinh tế các giải pháp công nghệ mới nổi.
Con người đã tích hợp các công cụ chống deepfake vào các nền tảng hiện có, chẳng hạn như Zoom, nhằm phát hiện âm thanh và video giả tạo theo thời gian thực. Ngân hàng đầu tư JPMorgan Chase & Co. sử dụng công cụ có tên là Reality Defender trong các liên lạc nội bộ và bên ngoài. Farid đã đồng sáng lập công ty riêng GetReal Security, chuyên cung cấp dịch vụ phát hiện deepfake theo thời gian thực, cũng như các dịch vụ pháp y kỹ thuật số khác.
Có những công cụ mới có thể xác minh danh tính người thật thông qua các phương pháp mã hóa hoặc sinh trắc học. Nổi bật nhất là thiết bị quét nhãn cầu Orb của Tools for Humanity, một startup mà Altman đồng sáng lập. Orb sử dụng quét mống mắt của người dùng để tạo ra mã nhận dạng World ID, được xem như “hộ chiếu kỹ thuật số”. Người ta có thể World App để xác thực danh tính của người có mã World ID. Dù nhà phát triển bảo đảm rằng không lưu trữ bất kỳ dữ liệu cá nhân nào, nhưng một số nước như Brazil đã cấm ứng dụng này.
Orb và các ý tưởng chứng minh “tính người” sẽ dựa vào một thực thể duy nhất, dù là công ty tư nhân, chính phủ hay tổ chức phi chính phủ, để cấp giấy chứng nhận ngay từ đầu, đặt quyền lực to lớn vào tay người cấp phép. Chúng cũng là những giải pháp dài hạn, đòi hỏi sự đồng thuận rộng rãi của xã hội và các thể chế, và khi nói đến cuộc khủng hoảng niềm tin trực tuyến, Farid nói, “chúng ta đang gặp vấn đề ngay bây giờ.”
Mỗi giải pháp được đề xuất này, từ việc kết thúc dấu gạch ngang dài đến Orb, đều liên quan đến sự đánh đổi, cho dù đó là việc yêu cầu con người phải từ bỏ một phần nhỏ của bản thân hay biến chính hành động làm người thành một loại màn trình diễn. Chúng ta đã đạt đến một điểm trong quá trình tiến hóa của AI mà chúng ta đã huấn luyện các cỗ máy xác suất trở nên quá giỏi trong việc dự đoán, trong bất kỳ hoàn cảnh nào, con người sẽ làm gì. Giờ đây, để phân biệt mình với chúng, chúng ta lại đang mắc kẹt trong việc cố gắng tìm ra điều tương tự.
Hồ Nguyên Thảo (theo TGHN)
Ngày đăng: 11/2/2026
————–
(*) Captcha là cụm viết tắt Completely Automated Public Turing test to tell Computers and Humans Apart, tức “phép thử Turing” công khai hoàn toàn tự động để phân biệt giữa máy tính và con người.
























































Ý kiến của bạn về bài viết
Không có chức năng bình luận cho bài viết này