Nhìn vào bức hình dưới đây, bạn nghĩ nó được chụp ngoài đời thực hay do AI tạo ra?
Nhìn có vẻ hơi khả nghi, ví dụ như có vài cánh cửa ô tô xếp chồng lên nhau, tưởng chừng như được ghép lại với nhau. Còn hai người bên dưới thì sao?
Nếu không kiểm tra kỹ, có thể bạn sẽ không tin: tất cả đều là “ảnh thật” được chụp.
Kể từ cuối tháng 10, vùng Valencia của Tây Ban Nha hứng chịu những trận mưa lớn, lượng mưa trong một ngày tương đương lượng mưa trong một năm và tiếp tục mưa.
Tại khu vực Valencia, đường phố có nhiều con dốc, lượng nước lớn như vậy hoàn toàn có thể làm nổi cả ô tô và lao thẳng xuống dốc. Cuối cùng, khi lũ rút, khung cảnh trong bức ảnh gốc hiện ra.Nhưng khi nhìn thấy những bức ảnh này, phản ứng của nhiều người là: AI làm được, tin giả.
Không thể nói những người này không có lý, quả thật bọn họ đã bị lừa. Một bé gái mặc áo phao được chụp hình khi Florida, Mỹ hứng chịu một cơn bão. Hình ảnh bé vừa khóc vừa ôm chú chó con trên xuồng cứu sinh đã gây sốt mạng xã hội.
Nếu nhìn kỹ, bức ảnh này còn “mang hương vị AI” hơn bức ảnh mưa lớn ở trên. Từ chi tiết ngón tay cho đến tư thế cơ thể đều có gì đó kỳ lạ khó tả. Đúng như dự đoán, tác giả bài viết gốc không biết bức ảnh này đến từ đâu mà chỉ đăng lên để bày tỏ sự cảm thông với những người bị ảnh hưởng bởi thảm họa.
Giờ đây, nền tảng X đã thêm thông tin cơ bản để nhấn mạnh rằng đây là hình ảnh được tạo ra chứ không phải “ảnh” thực tế được chụp. Trong hình ảnh cô bé mặc áo phao, sự hoài nghi của cư dân mạng đã khiến nền tảng này nhanh chóng phản ứng và đưa ra cảnh báo. Nhưng sự hoài nghi tương tự sẽ không còn hiệu quả trong một thảm họa khác. Rốt cuộc, những bức ảnh do AI tạo ra thực sự ngày càng trở nên khó phân biệt giữa thật và giả. Và bởi vì hết lần này đến lần khác, luôn có người sử dụng hình ảnh AI để thu hút sự chú ý, và cuối cùng nó biến thật thành giả, giả thành thật không biết đâu mà lần.
Càng thực tế càng nguy hiểm
Khi đánh giá hình ảnh hoặc video do AI tạo ra, liệu chúng ta có đủ chân thực hay không luôn là một trong những tiêu chí quan trọng nhất. Liệu hình ảnh có đủ chân thực và sống động như thật hay không đặt ra nhiều thách thức cho mô hình đằng sau nó: Có cần thiết phải nắm vững các quy tắc của ngôn ngữ tự nhiên hay không? Bạn có hiểu lẽ thường và quy luật của thế giới thực không? Bạn có thể hiểu thông tin trong ngữ cảnh và trình bày nó không?
Đây là bài kiểm tra năng lực của mô hình và là chỉ số hiệu quả phản ánh năng lực kỹ thuật của mỗi công ty. Lúc đầu, mọi người đều hào hứng với khả năng AI tạo ra những hình ảnh cực kỳ chân thực. Nhưng về sau, ngày càng có nhiều tin tức về việc “bắt đầu từ một bức tranh và tạo nên những thứ còn lại” và ngày càng khó phân biệt. Vào tháng 6, tin tức về một vụ nổ lớn ở Tây An, Trung Quốc xuất hiện trên mạng xã hội với thời gian và địa điểm được nêu rõ ràng. Tuy nhiên, sau khi kiểm tra, cảnh sát Tây An phát hiện không phải như vậy. Tin nhắn này được gửi bằng tài khoản do tổ chức MCN nắm giữ. Sau khi bị cảnh sát bắt giữ, tên tội phạm chính thú nhận rằng hắn đã sử dụng một công cụ AI. Khi được yêu cầu, công cụ này sẽ tự động thu thập các bài viết có liên quan trên Internet và sau đó tạo ra hàng trăm đến hàng nghìn từ văn bản.
Ở mức cao nhất, nó có thể tạo ra 4.000 đến 7.000 mẩu thông tin mỗi ngày mà hầu như không cần sự tham gia của con người trong toàn bộ quá trình và nó đặc biệt chọn các chủ đề và sự kiện liên quan đến sinh kế của người dân và các chủ đề nóng – nghiên cứu cho thấy tiêu cực và thông tin kích thích cảm xúc thường dễ thu hút hơn. Điều này dễ hiểu vì sự chú ý của con người được quyết định bởi cấu trúc của thùy đỉnh và thùy trán.
Sau một số hoạt động, chỉ bằng cách đăng tin giả và tăng lưu lượng truy cập vào nền tảng, thu nhập trung bình hàng ngày của kẻ lừa đảo lên tới 10.000 nhân dân tệ. Việc người dùng đọc, chuyển tiếp và bình luận những tin tức sai sự thật như vậy sẽ cảm thấy tức giận là điều không thể tránh khỏi.
Vào tháng 5 năm ngoái, bức ảnh chụp vụ nổ ở Lầu Năm Góc đã nhanh chóng được lan truyền.
Bức ảnh nhanh chóng được lan truyền trước khi được các tổ chức tin tức chuyên nghiệp xác minh. Vì tình cờ nó được đăng vào thời điểm mở cửa thị trường chứng khoán Mỹ ngày hôm đó nên nhiều trang web liên quan đến đầu tư và tài khoản mạng xã hội đã tweet lại nó, khiến chỉ số S&P 500 giảm 0,3%. Giá vàng và trái phiếu kho bạc Hoa Kỳ đã tăng nhẹ và một số nhà đầu tư đã chuyển vốn sang các sản phẩm ổn định hơn. Cuối cùng, sở cứu hỏa khu vực đã đứng ra bác bỏ tin đồn và xoa dịu tình hình.
Dựa quá nhiều vào việc “thấy mới tin” sẽ không chỉ làm tổn thương cảm xúc mà còn cả ví tiền của bạn. Vì vậy đã có một hoạt động ngược lại: tất cả đều được dán nhãn là AI.
Meta đã nói rõ rằng họ muốn đi đầu về AI. Zuckerberg tin rằng cần phải thêm một phần đặc biệt dành cho nội dung do AI tạo ra hoặc do hỗ trợ tạo ra. Anh ấy nói: “Tôi rất tự tin rằng trong thời gian tới. trong nhiều năm nữa, điều này sẽ trở thành một trong những xu hướng quan trọng và một trong những ứng dụng quan trọng.”
Meta sở hữu hai nền tảng nội dung quan trọng là Facebook và Instagram. Trước đây, nội dung do AI tạo ra ngày càng trở nên phổ biến vì chính sách ưu đãi của nó rất hấp dẫn: với mỗi bài đăng có hơn 1.000 lượt thích, bạn có thể nhận được tới 10 USD. phần thưởng.Có một điều cần nói là nếu chúng ta có thể kiên quyết thực hiện lộ trình “tất cả đều được dán nhãn là AI”, chống lại sự lan truyền của tin tức giả một cách hiệu quả và buộc nền tảng ngừng thúc đẩy lưu lượng truy cập và trợ cấp cho những nội dung này, có thể đây sẽ là một cách tiếp cận khả thi. Không mua bán, không có hại.
Tuy nhiên, khó khăn trong việc phân biệt sự thật và sự giả dối có thể khiến tác hại thực sự biến mất trong đại dương thông tin trên Internet. Tổ chức Theo dõi Internet báo cáo rằng lượng nội dung bất hợp pháp do trí tuệ nhân tạo tạo ra trong sáu tháng qua đã vượt quá tổng số của năm trước. Và tất cả chúng đều được tìm thấy trên các nền tảng công cộng như nền tảng xã hội và thư viện ảnh công cộng.
Những nội dung bất hợp pháp này bao gồm hình ảnh và video khiêu *** trẻ em do AI tạo ra; video Deepfake kết hợp ảnh khỏa thân của những người nổi tiếng về lạm dụng tình dục trẻ em, v.v.
Một vấn đề nghiêm trọng hơn là rất nhiều nội dung do AI tạo ra đã đạt đến điểm tới hạn. Vì chúng quá thực tế nên nhân viên không thể dễ dàng xác định liệu có người thật trong những bức ảnh giả hay không và liệu trẻ em có thực sự bị lạm dụng và cần can thiệp hay không.
Là một tổ chức phi lợi nhuận, các tổ chức như IMF chỉ có thể thu thập bằng chứng và thương lượng với nền tảng để yêu cầu xóa. Chỉ có cảnh sát và các quan chức thực thi pháp luật khác mới thực sự có khả năng tiến hành điều tra sâu hơn. Khi một số lượng lớn ảnh được tạo ra cần được chúng xử lý và những bức ảnh này chân thực đến mức không ai có thể phân biệt được, “tất cả đều bị gắn mác AI” sẽ khiến ảnh thật bị trộn lẫn, không thể nhận dạng và có cơ hội để can thiệp sẽ bị bỏ qua.
Các nhà phân tích tại IWF cho biết, “Hầu hết tất cả các báo cáo hoặc liên kết mà chúng tôi xử lý có chứa tài liệu lạm dụng tình dục trẻ em do AI tạo ra đều được tìm thấy trên Clearnet. Các tổ chức như của chúng tôi hoặc cảnh sát có thể tiếp xúc với hàng trăm hoặc hàng nghìn bức ảnh mới, không phải lúc nào chúng tôi cũng biết liệu có thực sự có một đứa trẻ đang cần giúp đỡ hay không”.
Bạn đã bao giờ bị bức ảnh AI trên mạng lừa gạt chưa? Bạn nghĩ thế nào về vấn đề này?