Yapay zekayla üretilmiş fotoğraflar, taklit sesler ve deepfake videolar dünyanın dört bir yanında "bilgi manipülasyonunun ve dolandırıcılığın en etkili ve tehlikeli" araçları haline geliyor.
Yapay zeka araçlarının bilinçsizce ve kontrolsüzce kullanılması durumunda doğurabileceği tehlikeleri bir kez daha gündeme getiriyor.
"Yapay zeka ürünlerini tanımak imkansız hale geldi"
Francesco Cavalli, yapay zekayla oluşturulan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin değerlendirmelerde bulundu.
Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.
Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.
Yapay zekayla manipülasyon
Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.
Cavalli, görsel medyaya olan güvenin gittikçe azaldığına işaret ederek bu konuda farkındalığın artması gerektiğini vurguladı. Konuya ilişkin, "Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor." diye konuştu.
Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri yönünde çağrılar yapılıyor.
İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, "Görmek artık inanmak demek olmayacak." ifadesini kullandı.