Các chuyên gia và cảnh sát cảnh báo về những trò lừa đảo, tống tiền tinh vi bằng Trí Tuệ nhân tạo
1. Hãy đề phòng những trò lừa đảo kinh hoàng liên quan đến Trí Tuệ Nhân Tạo
Lúc đầu, computer hay máy tính, chỉ có khả năng tính toán nhanh. Tuy nhiên, khi khả năng tính toán ngày càng nhanh, các thuật toán ngày càng thông minh hơn, và các dữ liệu ngày càng phong phú hơn, một ngành khác của khoa học điện toán ra đời gọi là Trí Tuệ Nhân Tạo, gọi tắt là AI, trong đó hứa hẹn một sự tương tác sâu đậm hơn.
AI ngày này vẫn chỉ mới ở dạng sơ khai. Tuy nhiên, đã có những lạm dụng. Chuyên gia tư vấn và đạo đức về AI Olivia Gambelin nói với Futurism rằng một số người đang rút lui vào chính mình và sống với máy. Qua các các chatbot như Replika, họ tạo ra những bạn gái và bạn trai có thể hành xử theo ý muốn của họ, và thường là những ham muốn xấu xa đồi trụy. Điều đó chắc chắn là một tội lỗi nghiêm trọng và làm băng hoại tương quan với người thật trong gia đình và xã hội.
Nhà nghiên cứu về tương quan giữa AI và tội phạm học Yochanan Bigman của Đại học Yale còn cảnh giác về mối nguy hiểm của việc dùng AI trong các hành vi tội phạm. Lấy một ví dụ cho dễ hiểu. Trong một trường hợp, một người tiếp cận với một phụ nữ đang chờ đợi tại một trạm xe điện, và hỏi thăm đường. Anh ta cũng tỏ ra lịch sử thêm vào một vài câu chuyện xã giao. Tất cả như thế là đủ. Hắn ta sau đó tống tiền người phụ nữ bằng một audio nhại đúng hệt giọng nói của người phụ nữ, trong một bối cảnh như thể người phụ nữ có quan hệ bất chính với anh ta.
Kỹ thuật nhại giọng nói bằng AI ngày càng phổ biến. Hôm 5 Tháng Sáu, các đài phát thanh trong khu vực Belgorod đã đồng loạt phát đi lời kêu gọi “khẩn cấp” của Tổng thống Vladimir Putin yêu cầu anh em binh sĩ đầu hàng quân giải phóng Nga thuộc Quân Đoàn Tình Nguyện Nga và Quân Đoàn Tự Do cho Nga để “tránh đổ máu không cần thiết”.
Theo hãng tin độc lập của Nga Meduza, lời kêu gọi này chắc chắn là giả, nhưng các cuộc đầu hàng của quân Nga là thật. Một số đơn vị của Putin đang giao tranh với quân giải phóng Nga đã tuân theo lệnh giả này buông súng đầu hàng.
Hãy cẩn thận, chúng ta đang sống trong một xã hội trong đó mọi thứ đang thay đổi rất nhanh đến mức chúng ta không nắm bắt hết được.
2. Ảo tưởng về Trí Tuệ Nhân Tạo đang che đi những cách thức chúng ta lạm dụng trí thông minh của máy móc
Tháng 11 năm ngoái, một thanh niên người Mỹ gốc Phi, Randal Quran Reid, đã bị cảnh sát tiểu bang Georgia chặn lại khi anh ta đang lái xe vào Atlanta. Anh ta bị bắt theo lệnh của cảnh sát Louisiana vì hai vụ trộm cắp ở New Orleans. Reid chưa bao giờ đến Louisiana chứ đừng nói đến New Orleans. Sự phản đối của anh ta chẳng có kết quả gì, và anh ta phải ngồi tù sáu ngày khi gia đình anh ta điên cuồng chi hàng ngàn đô la để thuê luật sư ở cả Georgia và Louisiana để cố gắng giải thoát cho anh ta.
Có vẻ như lệnh bắt giữ chỉ dựa trên kết quả trùng khớp nhận dạng khuôn mặt, mặc dù điều đó chưa bao giờ được đề cập trong bất kỳ tài liệu nào của cảnh sát; lệnh tuyên bố “một nguồn đáng tin cậy” đã xác định Reid là thủ phạm. Kỹ thuật nhận dạng khuôn mặt không chính xác, vụ án cuối cùng đã thất bại và Reid được trả tự do.
Anh ấy thật may mắn. Anh ấy có gia đình và các nguồn lực để tìm ra sự thật. Hàng triệu người Mỹ sẽ không có tài sản xã hội và tài chính như vậy. Tuy nhiên, Reid không phải là nạn nhân duy nhất của một trận đấu nhận dạng khuôn mặt sai. Con số tuy nhỏ nhưng cho đến nay tất cả những người bị bắt ở Mỹ sau một trận đấu giả đều là người da đen. Điều này không có gì đáng ngạc nhiên khi chúng ta biết không chỉ chính thiết kế của nhu liệu nhận dạng khuôn mặt khiến việc xác định chính xác người da màu trở nên khó khăn hơn mà còn cả các thuật toán sao chép những thành kiến của thế giới con người.
Trường hợp của Reid và của những người khác giống như anh ấy, nên là tâm điểm của một trong những cuộc tranh luận cấp bách nhất đương thời: đó là trí tuệ nhân tạo, gọi tắt là AI, và những mối nguy hiểm mà nó gây ra. Điều đó không phải, và rất ít người nhận ra nó là quan trọng, cho thấy AI đã bị biến dạng như thế nào và nó cần thiết lập lại như thế nào.
Từ lâu đã có một nỗi sợ hãi ngấm ngầm về loại thế giới mà AI có thể tạo ra. Những phát triển gần đây đã làm tăng thêm nỗi sợ hãi đó và đưa nó vào cuộc thảo luận công khai. Việc phát hành phiên bản 3.5 của ChatGPT vào năm ngoái và phiên bản 4 vào tháng 3 này đã tạo ra sự kinh ngạc và hoảng sợ: kinh ngạc về khả năng bắt chước ngôn ngữ của con người của chatbot và kinh hoàng về khả năng giả mạo, từ các bài tiểu luận của sinh viên đến các bản tin.
Source:The Guardian
No comments:
Post a Comment