Büyük İlerleme ile Büyük Sorumluluk Geliyor

Yazar: Roger Morrison
Yaratılış Tarihi: 27 Eylül 2021
Güncelleme Tarihi: 1 Temmuz 2024
Anonim
Büyük İlerleme ile Büyük Sorumluluk Geliyor - Teknoloji
Büyük İlerleme ile Büyük Sorumluluk Geliyor - Teknoloji

İçerik


Kaynak: Mike2focus / Dreamstime.com

Paket servisi:

Yapay zeka (AI) gibi teknolojik gelişmelerle birlikte medya tüketimi de değişmektedir. Genel olarak ilerlemeyi kucaklarken, bazı teknoloji türlerinin olumsuz taraflarının da farkında olmalıyız. Sahte haberlerin tanıtımında kullanıldığında AI’ın kabiliyetinin karanlık bir yanı vardır.

Teknolojinin karanlık tarafı, 15 Mayıs'ta Bloomberg’in şehir merkezinde bulunan global merkezinde sponsorluk ve ev sahipliği yapan NYC Media Lab’ın ikinci Machines + Media konferansında keşfedilen konulardan biriydi. manipülasyon ve yanlış bilgilendirme gölgesini ortaya çıkaranlar bile şu anda medyaya açık.

İyi Bir Hikaye Tüm Gerçeklerden Daha Zorlayıcıdır

“Sanat Devleti” başlıklı oturumda VİP, veri bilimi başkanı Buzzfeed, sahte veya yanıltıcı haber sorununun yalnızca medya şirketleri veya yeni teknolojilerden sorumlu tutulamaz. “İnsanlar mutlaka gerçekleri aramıyor” dedi. “Okuyucular hikaye istiyor.”


Öyküleri ve tercih edilen anlatıların arzusunu beslemenin “yanlış bilgiden daha fazla manipülasyon” olan sahte haberlere yol açabileceğini de sözlerine ekledi. Aslında, verilen öykü hiç yanlış bir şey içermeyebilir. Bu konuda sahte olan, rapor edilen gerçeklerin “okuyucuları bir sonuca götürmek” için daha büyük “aleyhte” seçilip kaldırılmasıdır.

Aynı satırlar boyunca, “Platform + Medya” oturumunda, William ve Flora Hewlett Vakfı'nın Demokrasi Girişimi'nden Kelly Born, “İnsanlar inançlarını pekiştiren haberleri ve özellikle de öfkeyi tetiklerse” dedi. Medyanın kapitalizasyonunu uyardı. Bu eğilim, içimizdeki en kötüsünü ortaya çıkaran “mükemmel bir fırtınaya” yol açabilir. Bu tamamen imal edilmiş sunumlar olasılığı ile daha da kötüleşir.

Görmek Hala İnanıyor Mudur?

Teknoloji, hikayeyi resimler ve videolarla anlatmakta rol oynar. Manipülasyon belirtileri olmadığı sürece, genelde gördüklerimize inanıyoruz. Bununla birlikte, AI sahte videoların gerçekçiliğini geliştirdiğinden, kelimenin tam anlamıyla halka açık rakamların ağzına kelimeler koymak mümkündür. (AI yalnızca zararlı amaçlarla kullanılmaz. Şirketlerin AI Kullanmayı Düşünmek İstedikleri 5 Yolda bazı yapıcı olanları inceleyin.)


AI’nın çok inandırıcı videoların üretilmesi tehlikesi “Makine ile Çalışan Medya'nın Karanlık Yüzüne Yönelik Çözümler” başlıklı oturumda gösterildi. Hareket hala kelimelerle biraz senkronize değildi, bu yüzden sahte bir videonun bazı izleri var ve izleyicilerin çoğu sahte olarak tanıyabildiklerini söyledi.

Obama'nın video manipülasyonunun, “Rogue One” için Grand Moff Tarkin olarak Peter Cushing'i diriltme gerçekçiliğine ulaşmadığı bir New York Times makalesinde açıklandığı gibi, bir aktörün “kafasında hareket yakalayan materyaller” giymesiyle etki sağlandı. kameranın önünde “yüzü Cushing'in dijital olarak yeniden yaratılmasıyla değiştirilebildi.” Filmin baş yaratıcı subayı / kıdemli görsel efekt süpervizörü, “süper yüksek teknoloji ve emek yoğun yapmanın bir versiyonu” dedi. makyaj."

Saptanamayan Faktörler

Şimdi, AI gelişmelerine, özellikle de, üretken rakip ağlara (GAN'lar) sayesinde, film sihir efektleri elde etmek her zamankinden daha kolay. GAN'leri kullanan bir AI sistemi, sahte görüntüleri saptamak için tasarlanan bir AI sistemi tarafından gerçek olarak kabul edilebilecek kadar iyi olana kadar görüntüleri iyileştirir.

Hata Yok, Stres Yok - Hayatınızı Yok Etmeden Hayat Değiştiren Yazılım Yaratma Adım Adım Kılavuzunuz

Hiç kimse yazılım kalitesiyle ilgilenmediğinde programlama becerilerinizi geliştiremezsiniz.

Bu videoda araştırmacıların, bir oyuncunun, genel olarak doktorlu videolarda bulunmayan sadakat düzeyi ile herhangi bir ifade ve duyuru üretmek için bir kamuoyunun yüzünün hareketlerini nasıl yönlendirebileceğini gösterdiğini görebilirsiniz.

Videolarla oynayan herkes şu anda böyle bir sisteme sahip olmasa da, yazılım yakın gelecekte daha fazla insanın erişimine açık olacak.

Olası sonuçlar

Factmata'nın kurucusu ve CEO'su Dhruv Ghulati, bu kabiliyetin sadece dünya liderlerini değil CEO'larını ve ünlülerin yüzlerini videolara söyleyerek ya da yapmadıkları şeyleri yaparken videolara nasıl uygulayabileceğinden “çok endişeli” olduğunu söyledi . Videonun yıkıcı güçleri botnetlerden viral bir etki yaratarak yoğunlaşacak.

Cornell Tech, bilgi bilimi profesörü Mor Naaman, “Artık yalancı gözlerimize artık güvenemeyiz” anlamına geliyordu. Güven kaybına neden olacağı konusunda endişeliydi.

Diğerleri şiddet alevlerini havalandırmak konusunda endişeli. Zaten “sadece biraz değiştirilmiş videolar” “gelişmekte olan dünyada şiddete neden olmak için kullanılıyor”, “teknoloji uzmanı Sosyal Medya Sorumluluk Merkezi Aviv Ovadya. (Sosyal medya, yanlış bilgi yaymanın etkili bir yolu olabilir. İlk En Yıkıcı Yem Hack'lerine Göz Atın.)

ABD'de Yatırım Ortağı olan Sarah Hudson, manipüle edilmiş görüntülerin “ölçekte” “kamu güvenliği için inanılmaz bir tehdit” teşkil ettiği konusundaki endişelerini dile getirdi.

Proaktif Planlama

Ovadya, “Bu kötüye kullanımın mümkün olduğunca önlenmesi” şarttır. Bu nedenle “kötü etkileri nasıl azaltacağı” hakkında “teknoloji geliştirirken zamanın ilerisinde düşünmek” ve “bu istenmeyen sonuçları ele almak için kaynak ayırmak” önemlidir.

Devam eden saati geri çevirmek imkansız, ancak yapmamız gereken, yönümüzün düşünülmüş ve planlanmış olmasını sağlamak. Bu sadece ne yapılabileceğini görmek için teknoloji üzerinde çalışmak değil aynı zamanda ne yapılması gerektiğini düşünmek anlamına da gelmek anlamına geliyor.

Teknolojik yenilik için ileriye dönük yol, etkilerin neler olabileceğini düşünmek ve tehlikeler gerçekleşmeden önce önlem almak için plan yapmaktır. Bunu yapmak için, araştırmacılar, teknoloji şirketleri ve devlet kurumları arasında, insanların uyması gereken standartları ve en iyi uygulamaları belirlemek için işbirliğine ihtiyacımız olacak. Bu, ilgilenen herkes için bir öncelik olmalıdır.