Công Nghệ Deepfake Là Gì?
Lê Tấn Tài
Trí tuệ con người đang dần dần bị “trí tuệ nhân tạo” (AI=Artificial Intelligence) thay thế trong khá nhiều lãnh vực như chơi cờ vua, dịch thuật, y tế trị liệu, xử lý dữ liệu để tự học hỏi… Bài viết sau đây nói về một khả năng khác của AI đang làm con người hoảng sợ.
Bạn có thể nào tin cựu tổng thống Mỹ Barack Obama nói trước hàng triệu khán giả trên Internet “Donald Trump là một kẻ ngốc”, hay Mark Zuckerberg, ông chủ Facebook, khoe khoang “Tôi đang toàn quyền kiểm soát dữ liệu của hàng tỷ người dùng trên toàn cầu”? Chuyện giả mà không giả. Năm 2017, video giả mạo cựu Tổng thống Mỹ Obama được nhóm nghiên cứu đại học Washington dùng trí nhân tạo AI để ghép mặt của Cựu Tổng thống Mỹ Barack Obama với một giọng đọc giả, khiến cả thế giới kinh ngạc vì độ chân thật của video. Khái niệm Deepfake bắt nguồn từ thời điểm này.
Deepfake là gì?
Deepfake (tạm dịch là “Giả Hình”) là kết hợp của “deep learning” (học kỹ, sâu) và “fake” (giả mạo), đề cập đến các video bị thao túng, hoặc các sản phẩm công nghệ được tạo ra bởi Trí tuệ nhân tạo một cách tinh vi, cụ thể là “học sâu” (deep learning), nhằm tạo ra các hình ảnh và âm thanh bịa đặt nhưng rất giống thật. Công nghệ này được xây dựng trên nền tảng machine learning, mã nguồn mở của Google. (“Học máy” là một ngành khoa học nghiên cứu các thuật toán (algorithm) cho phép máy tính có thể học được các khái niệm (concept) như con người). Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất vào một video riêng biệt, nhờ AI thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để “học”. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc.
Ứng dụng tích cực.
Có thể nói các hình thức ứng dụng trợ lý giọng nói bắt chước các yếu tố thân mật của con người trong lời nói, bao gồm ngắt nghỉ và tín hiệu bằng lời nói như “hmmm”, có tính thực tế cao, như các cuộc gọi điện thoại trực tiếp, tạo cảm giác với người đối thoại rằng họ đang nói chuyện với một người thực.. Một ví dụ khác, cho thấy sử dụng âm thanh giọng nói để tái tạo giọng nói của người thân yêu đã qua đời là một điều mà mọi người cảm thấy kết nối tốt hơn với người đã khuất. Deepfake giả giọng nói còn có một công năng khác là khôi phục giọng nói của một người khi họ bị mất giọng vì bệnh, hỗ trợ giáo dục bằng cách tái tạo âm thanh của các nhân vật lịch sử, như CereProc tạo ra một phiên bản bài diễn văn cuối cùng của cựu Tổng thống Mỹ John F. Kennedy, người đã bị ám sát năm 1963.
Video deepfake có thể làm sinh động các phòng trưng bày và bảo tàng.. Đối với ngành công nghiệp giải trí, công nghệ có thể được sử dụng để cải thiện việc lồng tiếng cho các bộ phim tiếng nước ngoài, v.v… Sự phổ biến của Amazon Alexa và Google Assistant làm cho chúng ta sống thoải mái trong một thế giới hòa trộn giữa thật và giả. Các ứng dụng hứa hẹn nhất của AI đều nằm trong lĩnh vực giải trí. Từ nhiều năm nay, các đạo diễn phim ảnh đã hao tốn rất nhiều trong việc giúp phim hoàn hảo hơn nhờ kỹ xảo đồ hoạ, hay đơn giản là cắt ghép một khung hình, cảnh vật, con người vốn dĩ không hề ở đó nhưng vẫn xuất hiện trên màn ảnh. Chuyện vào năm 2013, khi nam diễn viên Paul Walker đóng phim “Fast and Furious” qua đời vì tai nạn ô-tô sau một buổi tổ chức từ thiện. Bộ phim lúc ấy chưa đóng xong, tuy nhiên hàng triệu người trên toàn thế giới hào hứng bất ngờ khi gương mặt của anh xuất hiện trong phần phim tiếp theo ra rạp. Ngày nay, AI tái tạo lại hình ảnh của nữ diễn viên quá cố Carrie Fisher trong vai Công chúa Leia trong “Chiến tranh giữa các vì sao”. Như vậy khi một diễn viên nổi tiếng qua đời, đạo diễn chỉ cần tạo ra một người giả tiếp tục xuất hiện trong các bộ phim khác. Vấn đề đạo đức ở đây là khả năng tái sinh những người nổi tiếng có thể khiến họ trở thành con rối cho các công ty, được tái tạo để quảng cáo sản phẩm hoặc nhãn hiệu, quyền tôn trọng bản thân của các nhân vật nầy cần phải được xét đến.
Ứng dụng tiêu cực.
Ba mươi năm trước, Photoshop xuất hiện và làm thay đổi cách con người tiếp nhận các dữ kiện vì các hình ảnh nhìn thấy có thể là sản phẩm của một quá trình cắt ghép kỳ công. Người ta nghi ngờ vào độ chân thật của hình ảnh và đặt niềm tin vào video, ghi âm vì đây là những thứ gần như không thể giả mạo. Nhưng Deepfake xuất hiện và phá vở thành trì của thế giới Internet.. Người ta có thể ‘đưa’ bất kỳ chính khách nào tới đâu, làm bất cứ điều gì, khi các video được phổ biến để hủy hoại ai đó. Việc áp dụng Deepfake là một điều thú vị, nhưng cần cảnh giác với nó. Trong thực tế, không nên tạo bất kỳ một video giả mạo nào dù chỉ đề mục đích cho vui! Nó có thể khiến chúng ta gặp những rắc rối pháp lý và ảnh hưởng đến danh tiếng của bản thân. Salvador Dali, người áp dụng thuật toán vào ảnh của Marilyn Monroe viết: “Internet nói chung và mạng xã hội nói riêng đều là những phát minh mang tiềm năng lớn lao để phát triển vô tận, ẩn giấu nhiều chương sách mới còn chưa được khai phá nhằm mục đích chia sẻ, kết nối con người lẫn nhau trên toàn cầu. Dẫu vậy, vạn vật đều mang những thái cực đối lập song hành lập nhau, đi kèm với viễn cảnh tươi sáng vẫn luôn là những mặt tối phức tạp, trong đó có vấn nạn fake news, lừa đảo bằng tin tức giả mạo.”
Những nhân vật tiếng tăm rất dễ có nguy cơ bị tấn công bằng video giả mạo. Ngay cả những người phụ nữ bình thường cũng có thể bị người xấu dùng công nghệ này tạo ra những video khiêu dâm, khỏa thân giả mạo, xúc phạm đến danh dự và phẩm giá của họ. Một khi video đã bị phát tán trên Internet thì gần như không thể ngăn chặn nổi. Hơn nữa, rất khó để phân biệt tính thật giả của những nội dung này. Những nội dung sai sự thật sẽ hướng dẫn dư luận, làm hại đến uy tín và danh tiếng của các quan chức chính trị, nhà lãnh đạo doanh nghiệp, diễn viên, nghệ sĩ…, bào mòn niềm tin của mọi người với báo chí, cơ quan, tổ chức xã hội… Một vài ví dụ sau đây:
Đầu năm 2019, một nhóm tội phạm mạng đã lừa giám đốc điều hành công ty có trụ sở tại Anh trả cho họ 243.000 USD bằng cách sử dụng âm thanh deepfake giả giọng ông chủ của doanh nghiệp này qua điện thoại.
Tháng 6/2019, bộ trưởng chính phủ Malaysia bị cáo buộc xuất hiện trong một video quan hệ tình dục với người đồng giới. Hành vi này là bất hợp pháp ở Malaysia, dù những người ủng hộ ông tin rằng hình ảnh đó là giả mạo nhưng các chuyên gia lại không tìm thấy bằng chứng video bị cắt ghép.
Một ví dụ khác về sự kiện ở Gabon cuối năm 2018. Khi đó, Tổng Thống Ali Bongo Ondimba của nước này đã không xuất hiện trước công chúng trong vài tháng. Dư luận cho rằng tổng thống Ondimba bệnh nặng, thậm chí đã chết. Nhằm dập tắt tin đồn này, chính phủ đã công bố một video cho thấy tổng thống đọc diễn văn chức mừng năm mới. Trong video, ông Ondimba xuất hiện trông cứng nhắc với nét mặt thiếu tự nhiên. Video lập tức gây nghi ngờ và tranh cãi trên mạng xã hội. Các nhóm chống đối khẳng định video là sản phẩm của Deepfake và tổng thống đã qua đời. Ông Ondimba sau đó xuất hiện trở lại và tiếp tục lãnh đạo Gabon. Cho đến nay, giới chuyên gia vẫn chưa thể khẳng định đoạn video của ông có phải là giả mạo hay không?
Deepfake ngày nay hiển nhiên trở thành vũ khí hữu hiệu nhất trong chính trị.. Thông tin giả mạo có thể dẫn đến biểu tình, bạo động, gây bất ổn…Chuyện gì sẽ xảy ra, nếu trên mạng bỗng dưng xuất hiện một video deepfake mô tả ứng cử viên tổng thống đang quấy rối tình dục trẻ em, hoặc một cảnh sát trưởng đang xúi giục nhân viên thực hiện hành vi bạo lực với người dân tộc thiểu số, hay những người lính có hành động tàn ác trong chiến tranh…
Một giải pháp được nhiều nước cân nhắc là đưa ra luật quy định việc tạo và phát tán nội dung Deepfake là bất hợp pháp. Vào tháng 10, 2019, California quy định rằng việc tạo hoặc chia sẻ video, hình ảnh, giọng nói của các chính trị gia bằng công nghệ Deepfake trước cuộc bầu cử là phạm luật. Tuy nhiên, giải pháp này vẫn không hiệu quả, do tính ẩn danh và không biên giới của Internet. Trong giai đoạn này, các hãng công nghệ lớn như Facebook, Google và Twitter phải hành động để hạn chế sự lan truyền của những video giả mạo.
Nghị Sĩ Marco Rubio nhận xét: “Ngày xưa, nếu muốn đe dọa Hoa Kỳ, đối thủ cần có 10 hàng không mẫu hạm, vũ khí hạt nhân và hỏa tiễn tầm xa. Ngày nay, tất cả những gì bạn cần là khả năng sản xuất một video giả mạo nhưng trông như thật, để gây ảnh hưởng tới kết quả bầu cử, đẩy nước Mỹ vào khủng hoảng và làm suy yếu chúng ta.”
Thông thường, các tin xấu và gây tranh cãi luôn lan truyền rất nhanh, nhưng các tin đính chính sau đó lại ít người biết tới. Tuy nhiên, nếu mọi người có xu hướng hoài nghi mọi video họ xem, kể cả thông tin chính thống, ông Hani Farid, một trong những chuyên gia hàng đầu thế giới về deepfake, nói: “Nếu bạn không còn tin những video hay những đoạn âm thanh mà bạn xem, đó thật sự là nguy cơ an ninh quốc gia nghiêm trọng.” Ông dự đoán trong tương lai gần, công nghệ Deepfake sẽ phát triển từ một hiện tượng lạ trên Internet thành một công cụ tàn phá xã hội, công kích chính trị. Ông cũng cho rằng mọi người cần có sự chuẩn bị để đối mặt với vấn đề này.
Ảnh ghép phim khiêu dâm.
Ác mộng mà Deepfake mang lại là sự giả mạo ghép ảnh phụ nữ khoả thân. Ghép mặt người khác vào nhân vật phim khiêu dâm đang ngày càng phổ biến, đặt ra những câu hỏi mới về vấn đề “lạm dụng công nghệ” tại Trung Quốc. Cuộc điều tra của tờ The Beijing News đã phát hiện ra nhiều dịch vụ làm việc nầy với giá chưa tới 1 USD.
Theo thống kê, tính đến tháng 9/2019, có 96% video deepfake chứa nội dung khiêu dâm. Có một số trang web chuyên phát những nội dung này và thu hút rất nhiều lượt xem trong suốt hai năm gần đây. Những nội dung trong đó hầu hết được tổng hợp từ những video với sự ghép mặt của những người nổi tiếng.
Ai cũng có thể là nạn nhân của Deepfake. Nếu một ngày nào đó bỗng nhiên bạn thấy mặt mình xuất hiện trong một bộ phim khiêu dâm và được lan truyền trên mạng, với tốc độ lan truyền nhanh như hiện nay thì việc một video khiêu dâm sẽ nhanh chóng đến tay bạn bè và người thân của bạn. Khi đó danh dự và mọi người sẽ nhìn và đánh giá bạn ra sao? Đây là ví dụ rõ ràng nhất cho thấy sự xuất hiện của công nghệ Deepfake đã khiến công chúng càng khó phân biệt đâu là thật giả. Và những người có ý đồ dẫn dắt dư luận sẽ cố gắng khai thác điều này, làm cho tình hình ngày càng trở nên tồi tệ hơn.
Cách tạo một Deepfake.
Mọi sản phẩm sử dụng trí tuệ nhân tạo đều trải qua hai bước chính: nạp dữ liệu đầu vào, sau đó dựng lên mô hình và lựa chọn một thuật toán để liên tục xử lý, “học” từ các mô hình đó.
Theo Reddit, dữ liệu đầu vào để tạo nên một video ghép mặt giả mạo rất đơn giản, nó chính là những bức ảnh công khai của diễn viên có trên mạng từ Google, những clip video có sẵn từ Youtube. Cách làm và công cụ cũng có sẵn, người dùng “deepfakes” chỉ cần thực hiện vài thuật toán mã nguồn mở như Google TensorFlow hoặc Keras để cho cỗ máy “học” và ghép khuôn mặt với độ giống cao. Quá trình “học” chính là đóng góp mấu chốt của trí tuệ nhân tạo.
Nhóm nghiên cứu Samsung hợp tác với Viện Khoa học và Công nghệ Skolkovo đã phát triển được một phương thức để hoạt họa hóa các bức chân dung cổ điển, khiến chúng trở nên sống động hơn bao giờ hết, phát triển một hệ thống dựng hình mặt người sử dụng với nguồn hình ảnh tĩnh cực ít, kể cả chỉ duy nhất một tấm hình gốc cũng có thể giúp nó hoạt động và làm giả được.
Rất khó tạo một deepfake nếu chỉ sử dụng một chiếc máy tính thông thường. Hầu hết các sản phẩm deepfake được làm nên từ các máy tính cao cấp với card đồ họa (hay còn gọi là card màn hình – Graphics card) mạnh mẽ, hay cao hơn nữa là sử dụng điện toán đám mây (cloud computing).
Deepfakes chất lượng kém dễ dàng bị phát hiện. Những khuôn mặt trên deepfake không thể chớp mắt như bình thường, vì thuật toán không bao giờ thực sự “học” về việc chớp mắt. Đồng bộ môi xấu, hoặc màu da loang lổ có thể giúp nhận ra đâu là video giả. Các chi tiết như tóc đặc biệt khó để deepfake có thể “render” (kết xuất đồ họa hay quá trình tập hợp các mô hình thành một hình ảnh) một cách mượt mà. Đồ trang sức hay răng làm ẩu cũng là một điểm cần chú ý, hay các hiệu ứng ánh sáng kỳ lạ, chẳng hạn như chiếu sáng không nhất quán và phản chiếu trên mống mắt sẽ là một căn cứ quan trọng để phân biệt. Các nhà nghiên cứu đã giới thiệu một công cụ cho phép nhận diện các video deepfake. Công cụ này còn có thể phân tích được những chi tiết mà mắt người không thể nhận ra, như phân tích phổ hoặc ánh sáng của bức ảnh để nhận ra vị trí khác biệt.
Tuy nhiên, họ cũng thừa nhận phải liên tục phát triển để chạy đua với những kỹ thuật làm giả mới nhất. Đáng sợ hơn, Deepfake đang ngày càng được cải tiến và hoàn thiện vượt qua trí tưởng tượng của người thường, những video deepfake xuất hiện ngày càng nhiều và gia tăng với tốc độ chóng mặt trên mạng Internet. Theo thống kê của Deeptrace, tính đến đầu năm 2019, có 7.964 video deepfake xuất hiện trực tuyến. Chỉ sau 9 tháng, còn số này đã tăng lên đến 14.678 và tất nhiên vẫn tiếp tục tăng một cách nhanh chóng.
Đạo đức khoa học.
Phát minh nguyên tử năng hay Deepfake không mang lại lợi ich cho nhân loại bao nhiêu mà tai họa thì rất lớn.
Năng lượng hạt nhân là giải pháp mới để sản xuất ra điện năng so với các nguồn năng lượng khác và được cho khá an toàn, nhưng trong lịch sử đã chứng kiến nhiều sự cố về các nhà máy điện hạt nhân. Chất thải của nhà máy nguyên tử rất độc hại và tồn tại cả ngàn năm. Khả năng rủi ro rò rỉ phóng xạ cao là một hiểm họa cho sự sống muôn loài. Chưa nói đến vũ khí hạt nhân thật sự là một đại thảm họa cho nhân loại. Tính cho tới nay, chỉ có hai quả bom hạt nhân đã được sử dụng trong Thế chiến II tại Hiroshima và Nagasaki (Nhật Bản), đã cho thế giới thấy sức công phá và hủy diệt khủng khiếp của chúng. Ngày nay cả thế giới có trên 15.000 loại vũ khí hạt nhân và hãy tưởng tượng nếu có một lánh tụ điên khùng nào ra lệnh nhấn nút khai hỏa thì loài người sẽ tuyệt chủng, những người còn lại mức sống và tuổi thọ chỉ tương đương với thời kỳ trước Trung cổ. Ngoài ra, nó cũng sẽ hủy diệt hệ sinh thái và tác động khủng khiếp đến khí hậu Trái Đất.
Vũ khí hạt nhân tiêu diệt thế giới vật chất. Vũ khí Deepfake tiêu diệt giá trị tinh thần.
Sự giả mạo và dối trá.
Con người ngày nay sống trong một thế giới đầy sự giá mạo, dối trá, không ai còn tin những giá trị thật của lời nói, con người thật, sản phẩm hàng hóa thật. Các bộ phận trong con người như tóc, tai, mắt, mũi, chân mày, lông mi, đến cả ngực, mông đều có thể làm giả. Các sản phẩm mỹ thuật như cây, hoa, thú vật kiểng cũng được làm giả bằng các loại nhựa. Các mặt hàng giả, phẩm chất kém, đa dạng, đầy dẩy, gây thiệt mạng cho người tiêu thụ như phụ tùng an toàn xe hơi, mỹ phẩm… Thực phẩm giả ẩn chứa nhiều rủi ro cho sức khỏe như trứng giả chứa nhiều thành phần gây hại; mì giả làm bằng ngũ cốc hư thối; nước mắm giả được chế từ nước lã, muối, chất hóa học tạo màu, hương vị; thuốc chữa bệnh giả chứa độc chất nguy hiểm, kim loại nặng, hoặc gây chết người. Từ những thứ giả mạo đó, xã hội sinh sản ra những hạng người giả: bác sĩ giả (học dõm, trường dõm), giáo sư giả (bằng cấp dõm), thể tháo giả (dùng thuốc cường lực), tu sĩ giả (khẩu phật tâm xà) v.v…
Tương tác giữa người với người.
Mối quan hệ giữa người với người luôn tồn tại hai hiện tượng song hành đó là thật và giả. Thật, giả có lúc rất rõ ràng, dễ nhận biết, nhưng cũng có lúc lẫn lộn, phức tạp, khó nhận biết. Sự thật khách quan được hiểu cái gì đó là đúng hoặc có thể được chứng minh với bằng chứng cụ thể. Sự giả dối có thể nhận thức được từ ý chí chủ quan của một người. Người tạo ra sự giả dối đều có mục đích riêng của nó. Bà Vian Bakir, giáo sư truyền thông chính trị và báo chí tại Đại học Bangor Xứ Wales, viết:
“Điều đặc biệt tồi tệ về thời điểm hiện tại là một số chính trị gia nổi bật… và các nhà lãnh đạo chuyên quyền trên khắp thế giới đã biến việc nói dối trơ trẽn trở thành thói quen và đương nhiên họ không quan tâm liệu họ có bị phát hiện hay không.”
Bà nói thêm: “Tôn giáo trở thành tồi tệ khi người ta dùng nó làm chính trị – để bảo vệ quyền lợi của giáo hội, để tấn công “kẻ xấu”, để ủng hộ chiến tranh và xâm lăng, để tận diệt các văn hóa và tôn giáo khác, để bảo vệ giáo pháp, để thay trời hành đạo… nói chung là mọi việc có tính cách chính trị – dù các từ ngữ dùng nghe cao siêu đến thế nào.”
“Điều đặc biệt tồi tệ về thời điểm hiện tại là một số chính trị gia nổi bật… và các nhà lãnh đạo chuyên quyền trên khắp thế giới đã biến việc nói dối trơ trẽn trở thành thói quen và đương nhiên họ không quan tâm liệu họ có bị phát hiện hay không.”
Bà nói thêm: “Tôn giáo trở thành tồi tệ khi người ta dùng nó làm chính trị – để bảo vệ quyền lợi của giáo hội, để tấn công “kẻ xấu”, để ủng hộ chiến tranh và xâm lăng, để tận diệt các văn hóa và tôn giáo khác, để bảo vệ giáo pháp, để thay trời hành đạo… nói chung là mọi việc có tính cách chính trị – dù các từ ngữ dùng nghe cao siêu đến thế nào.”
Quan hệ xã hội, kế cá các quan hệ thân thuộc như cha mẹ , vợ chồng, con cái, anh em, bà con, thầy trò, chủ tớ… phần lớn đều được giao tiếp qua sự giá dối. Phải nhận rằng, con người hiện nay sống theo quan niệm người khác, suy nghĩ theo người khác, nói theo người khác, hành động theo người khác, rất hiếm cái nào là thực tế khách quan, chân thật. Deepfake làm mất niềm tin, làm người ta không phân biệt phải trái, chân giả, cuốn vào guồng quay điên cuồng của nó. Phải nhận biết được sự thật, chấp nhận và đối diện với sự thật, lên án, bài trừ sự giả dối thì xã hội loài người mới phát triển theo quy luật tiến hoá của nhân loại. Nuôi dưỡng sự giả dối, tư tưởng dễ mất phương hướng, thiếu niềm tin chân lý, chìm ngập trong mơ hồ, ảo tưởng, làm nghiêm trọng thêm căn bệnh chủ quan, đưa đến hoang tưởng, cực đoan. Chừng nào con người trở về với chân tâm của mình thì chừng đó tâm mới an, xã hội mới bình.
Lê Tấn Tài
(Tài liệu Internet)
No comments:
Post a Comment