Thursday, March 12, 2026

Khi ChatGPT phối hợp và đồng hành cùng vụ thảm sát trường học tại Canada

Một thiếu niên 16 tuổi ở vùng nông thôn British Columbia, Canada, đã sử dụng ChatGPT như một “người bạn đồng hành bí mật” trong nhiều tháng để lập kế hoạch và thực hiện một vụ xả súng hàng loạt tại trường trung học địa phương, khiến 8 người thiệt mạng trước khi tự sát.

Vụ thảm sát này được cảnh sát Hoàng gia Canada (RCMP) mô tả là “một trong những vụ xả súng chết chóc nhất lịch sử Canada”, đã khiến xã hội hết sức lo ngại về rủi ro an toàn của trí tuệ nhân tạo (AI) khi bị lạm dụng cho mục đích bạo lực.

Jesse Van Rootselaar, học sinh lớp 11 tại Tumbler Ridge Secondary School, đã thực hiện vụ thảm sát vào sáng ngày 10 tháng 2 năm 2026.

Jesse Van Rootselaar đã sát hại 8 người, gồm cả mẹ và anh trai cùng cha khác mẹ của mình tại nhà riêng, sau đó hắn xông vào trường với khẩu súng trường bán tự động, bắn chết 5 học sinh, 1 trợ lý giáo dục, 1 nhân viên vệ sinh và 1 bảo vệ an ninh. Sau đó, Van Rootselaar tự sát ngay tại hiện trường. Tất cả nạn nhân đều là người quen biết hoặc gặp hắn trong trường.

ChatGPT, “Người bạn thân nhất” trong kế hoạch giết người

Điều đáng kinh ngạc nhất trong vụ án là vai trò của ChatGPT, một AI phổ biến nhất thế giới do OpenAI phát triển.

Theo hồ sơ điều tra của RCMP và dữ liệu từ OpenAI (được cung cấp cho cơ quan chức năng sau vụ thảm sát), Van Rootselaar đã sử dụng ChatGPT làm “người bạn đồng hành” trong suốt thời gian ủ mưu nhằm lập kế hoạch thảm sát.

Từ khoảng tháng 6 năm 2025, hắn bắt đầu trò chuyện với ChatGPT về các ý tưởng bạo lực, cách chế tạo bom, vị trí đặt súng, và cách tấn công trường học hiệu quả nhất. Jesse đã gửi các 'prompts' mô tả chi tiết các kịch bản sử dụng súng và các sự kiện gây thương vong hàng loạt.

Hắn chia sẻ chi tiết kế hoạch, hỏi ý kiến chatbot về cách “tối ưu hóa số nạn nhân” và thậm chí nhờ ChatGPT “đóng vai bạn thân” để cổ vũ tinh thần.

Vào tháng 6 năm 2025, các nhân viên của OpenAI đã phát giác và khoá account của Jesse vì vi phạm chính sách về nội dung bạo lực.

Tuy OpenAI quyết định khóa tài khoản của Jesse nhưng không thông báo cho chính quyền Canada. Công ty cho rằng các tin nhắn chưa đạt đến ngưỡng "mối đe dọa trực tiếp và cụ thể" theo quy định nội bộ lúc bấy giờ.

Sau khi bị khóa tài khoản đầu tiên, Jesse được cho là đã tạo một account khác để tiếp tục sử dụng dịch vụ.

Sau vụ thảm sát, OpenAI đã chủ động cung cấp toàn bộ lịch sử trò chuyện cho RCMP. Trong đó, ChatGPT không trực tiếp khuyến khích giết người (vì có bộ lọc an toàn), nhưng đã trả lời các câu hỏi kỹ thuật và đôi khi đưa ra phản hồi trung lập hoặc “hỗ trợ” khi hắn hỏi về “cách thực hiện một vụ tấn công hiệu quả”.

Trong buổi họp báo ngày hôm qua 11/3/2026, Chỉ huy RCMP British Columbia xác nhận ChatGPT đóng vai trò “hỗ trợ lập kế hoạch” và là “một trong những yếu tố góp phần vào vụ việc”.

Họ nhấn mạnh rằng đây là vụ xả súng cá nhân, không liên quan đến khủng bố tổ chức, nhưng AI đã giúp hắn củng cố ý định và hoàn thiện kế hoạch.

Phát ngôn viên của OpenAI khẳng định: “Chúng tôi đã cấm tài khoản này từ tháng 6/2025 vì phát hiện nội dung vi phạm. Chúng tôi tiếp tục cải thiện các biện pháp an toàn để ngăn chặn việc lạm dụng mô hình cho mục đích bạo lực.” Công ty cũng cam kết hợp tác đầy đủ với cơ quan điều tra.

Nhà sáng lập xAI Elon Musk bình luận trên X: “ChatGPT trở thành ‘tên bạn sát nhân’ cho một thiếu niên, đây là điều chúng ta đang đối mặt.

AI không có đạo đức, chỉ có những người tạo ra nó mới có trách nhiệm.” Musk dùng vụ việc để chỉ trích OpenAI về chính sách an toàn.

Bi kịch khủng khiếp này đã làm nổ ra cuộc tranh luận lớn ở Canada về việc quy định AI, đặc biệt là trách nhiệm của các công ty phát triển mô hình ngôn ngữ lớn khi bị sử dụng cho mục đích tội phạm.

Chính phủ Canada đang xem xét bổ sung luật về “an toàn AI” nhằm buộc các công ty phải báo cáo các trường hợp lạm dụng nghiêm trọng.

Vụ thảm sát Tumbler Ridge là lời cảnh tỉnh nghiêm trọng về ranh giới mong manh giữa công nghệ và bạo lực.

Khi AI ngày càng trở thành “người bạn đồng hành” của nhiều người, nó thực sự chi phối ngày càng sâu vào xã hội. Và vài trò của nhà cung cấp kỹ thuật dường như còn quá lỏng lẻo.

Câu hỏi đặt ra là: Làm sao để ngăn chặn khi “người bạn AI” đó lại giúp lập kế hoạch cho vụ giết người thêm hiệu quả?

FB Uyen vu




No comments:

Blog Archive