Üsküdar Üniversitesi İletişim Fakültesi Reklamcılık Kısmı Dr. Öğr. Üyesi Burak Çeber, yapay zeka ve bilgi kirliliği konusunu kıymetlendirdi.
Yapay zeka araçları vakit zaman aldatıcı içerikler de üretiyor
Son yıllarda üretken yapay zekâ uygulamalarının gündelik ömrün vazgeçilmez bir modülü hâline geldiğini lisana getiren Dr. Öğr. Üyesi Burak Çeber, “Evde, okulda, işte yahut alışverişte farklı hedeflerle kullanılan yapay zekâ araçları artık herkesin hayatına dokunuyor. Gündelik ömürde sıkça kullanılan yapay zekâ araçları, hakikat sonuçlar vermelerinin yanında vakit zaman aldatıcı içerikler de üretebiliyor. Bu durumu ‘yapay zekâ halüsinasyonu’ kavramı ile açıklamak mümkün.” dedi.
Sistem ‘bilmiyorum’ demek yerine kestirim yürütüyor
Yapay zekâ sistemlerinin, toplumsal medya paylaşımlarından web sitelerine, formlardan bilimsel makalelere kadar pek çok kaynaktan toplanan büyük bilgi kümeleriyle eğitildiğini anlatan Dr. Öğr. Üyesi Burak Çeber, “Yapay zekâ, bu bilgilerdeki kalıpları öğrenip tekrar içerik üretiyor. Fakat kimi durumlarda sistem, eğitim bilgilerinde yer almayan yahut gerçek dünyayla uyuşmayan bilgiler üretebiliyor. Bu yanılgılar, olmayanı varmış üzere göstermek, mantık yanılgıları yapmak ya da yanlış bilgi vermek halinde ortaya çıkıyor. Halüsinasyonun nedenleri ortasında eğitim verisinin yetersizliği, bağlamın yanlışsız kurulmamış olması, fazla genelleme yapılması ve sistemin ‘bilmiyorum’ demek yerine iddia yürütmesi bulunuyor. Elhasıl, yapay zekânın halüsinasyonları, gerçekte olmayan bilgileri üretiyor oluşu bakımından, insanların hayal gördüğü yahut yanlış algıladığı durumlara benzetilebilir.” diye konuştu.
Yapay zeka da önyargılı
İnsanların sahip olduğu önyargıların, yapay zekâya da yansıdığını kaydeden Dr. Çeber, şöyle devam etti:
“Bu durum, ‘algoritmik önyargı’ olarak isimlendiriliyor. Algoritmik önyargı iki halde ortaya çıkabiliyor. Birincisi, algoritmayı tasarlayan kişinin şuurlu ya da bilinçsiz tercihleri modelin davranışına yansıyabiliyor. İkincisi, yapay zekâyı eğiten data setlerinde yer alan toplumsal önyargılar sistemin çıktılarına yansıyabiliyor. Yani data setinde yanılgı yahut önyargı varsa, yapay zekânın ürettiği içeriklerde de tıpkı önyargılar görülebiliyor. Örneğin Yapay zekâ, işe alım süreçlerinde kimi demografik kümeler ortasında ayrım yapabiliyor. 2018 yılında Google, özgeçmiş tarama aracının bayan adayların müracaatlarını geri plana atması nedeniyle eleştirildi. Benzeri bir örnek de Apple Card’da yaşandı. Algoritma, gelir düzeyi birebir olan çiftlerde erkeklere bayanlardan daha yüksek kredi limiti verdi.”
Yapay zekanın düzmece içerikleri süratle yayılıyor
Yapay zekânın, beşerler tarafından üretilen içeriklere kıyasla dezenformasyonun boyutunu büyük ölçüde artırdığını ve yayılma suratını önemli formda yükselttiğini de tabir eden Dr. Öğr. Üyesi Burak Çeber, “Bir insanın günlerce hazırlayabileceği içerikleri, yapay zekâ dakikalar hatta saniyeler içinde üretebiliyor. Bu da yanlış bilgilerin süratle viral hâle gelmesine yol açıyor. Örneğin, deepfake teknolojisiyle bir önderin yahut ünlünün yüzü ve sesi dijital ortamda taklit edilebiliyor ve görüntü halinde süratle yayılabiliyor.” dedi.
Reklam stratejileri belirleyenleri de var
Yapay zekânın iş süreçlerine girdikçe, reklam profesyonellerinin daha evvel hiç karşılaşmadıkları çeşitten bilgilere ulaşmaya ve bunları anlamlandırmaya başladığını da lisana getiren eden Dr. Öğr. Üyesi Burak Çeber, “Artık reklamla ilgili kararlar, yalnızca bir küme uzmanın görüşüne dayanmak yerine, tüketicilerin konuşmalarına, dijital davranışlarına ve onların bıraktığı ipuçlarına nazaran verilebiliyor. Bu sayede hazırlanan reklamın çeşidi, içeriği ve özellikleri konusunda daha net fikirler elde edilebiliyor. Son devirde yapay zekâ, reklam üretiminde somut sonuçlar da vermeye başladı. Reklam metni yazabilen, görsel ve görüntü üretebilen, hatta strateji belirleyebilen yapay zekâ teknolojileri geliştirildi. Üretken yapay zekâ uygulamaları, reklam verenlere başarılı sonuçlar sunsa da tüketiciyi her an ve her şartta tüketime yönlendirecek formda işliyor. Bu durum beraberinde doyumsuz bir tüketim anlayışını getiriyor. Bu anlayışı deniz suyu içmeye benzetebiliriz: Susuzluğunu gidermek için deniz suyu içen kişi, daha çok susar ve susadıkça daha fazla içer. Yapay zekâ da kullanımına bağlı olarak tüketimde susuzluğu artıran yahut hatırlatan bir araç misyonu görebiliyor.” sözünde bulundu.
Veri analitiğine dayalı yapay zekâ uygulamalarının artık yalnızca demografik bilgiler yahut tüketim alışkanlıklarını değil, insanların ruhsal profillerine dair dataları de toplayabildiğini söyleyen Dr. Öğr. Üyesi Burak Çeber, “Cambridge Analytica skandalında gördüğümüz üzere, bu cins bilgiler insanların seçim davranışlarını etkilemek için kullanılabiliyor.” formunda konuştu.
Medya okuryazarlığı şart
Sahte içerikleri tespit etmek için öncelikle güzel bir medya okuryazarlığı gerektiğine vurgu yapan Dr. Öğr. Üyesi Burak Çeber, “İçerikleri farklı kaynaklardan doğrulama alışkanlığı kazanmak büyük kıymet taşıyor. Bunun yanında, yapay zekâ uygulamalarına dair farkındalık da koşul. Yapay zekânın yetenekleri ve hudutları bilindiğinde, neyin uydurma neyin gerçek olduğu çok daha kolay anlaşılabiliyor. Yapay zekâ, yüzeysel tutarlılıkta epey başarılı. Yüzeysellikten uzaklaşıp derinlik arandığında yani ayrıntılara ve bağlama bakıldığında uydurma içerikler tespit edilebiliyor. Bunun yanında dijital filigran, anomali tespiti ve metaveri tahlili üzere yollarla de Yapay zekâ tarafından üretilen uydurma içerikler ortaya çıkarılabiliyor.” dedi.
Yeni bir teknoloji ortaya çıktığında çoklukla evvel sağladığı kolaylıklar ve heyecan verici taraflarının öne çıkarıldığına işaret eden Dr. Öğr. Üyesi Burak Çeber, “Yapay zekâda da durum farklı değil; birçok vakit verimlilik, yaratıcılığa katkısı, iş süreçlerini hızlandırması üzere olumlu tesirler üzerinde duruluyor. Lakin bu yaklaşımın doğal bir sonucu olarak, düzmece içerik üretimi, manipülasyon ve etik riskler geri planda kalabiliyor. Teknolojinin birinci periyodunda aksiliklere odaklanmamak anlaşılır olsa da vakitle bölümlerin, meslek örgütlerinin, akademinin ve karar vericilerin bu risklere eğilmesi kaçınılmaz hale geliyor. Zira geçersiz üretim teknik bir husus olmaktan öte etik, hukuk ve toplumsal kıymetlerle direkt bağlantılı bir mevzu.” sözünde bulundu.
İnsan ile yapay zekâ ortasında iş birliğine dayalı bir istikrar, hibrit zekâ…
Gerçek ile düzmecenin ortasındaki çizginin bulanıklaşmasının yapay zekânın yaygınlaşmasından çok önceye dayandığını lisana getiren Dr. Öğr. Üyesi Burak Çeber, “Ancak yapay zekâ teknolojilerinin gelişmesiyle birlikte, gerçeklik ve hakikatle kurduğumuz alakanın farklı biçimlerde koptuğuna şahit oluyoruz. Bugün, gerçeğinden ayırt etmekte zorlandığımız görseller, sesler ve görüntülerle karşılaşıyoruz. Birçok vakit kendimizi ‘Acaba bu içerik gerçek mi?’ diye sorarken buluyoruz. Burada içeriğin tamamının değil, bir kısmının da yapay zekâ ile üretilmiş olabileceği ihtimali kıymet kazanıyor. Bir insan yapay zekâ ile üretim yaparken, kendi tecrübelerini, hayal gücünü, yaratıcılığını ve düşünme yetisini de işin içine katıyor mu? Karşılaştığı bir sorunu çözerken bilgi birikimini, uygulama hünerlerini, irtibat gücünü ve insan münasebetlerini kullanıyor mu? Bu soruların yanıtı ‘evet’ ise, yapay zekâ işi büsbütün devralan değil, süreci destekleyen pozisyonunda demektir. İşte bu noktada insan ile yapay zekâ ortasında iş birliğine dayalı bir istikrar (hibrit zekâ) kurulabiliyor.” diye konuştu.
Açık kaynaklı yapay zekâ adeta iki ucu keskin bir bıçak gibi
“Açık kaynaklı yapay zekâ adeta iki ucu keskin bir bıçak üzere. Bir yandan makûs niyetli şahısların eline geçtiğinde uydurma içerik üretmek ya da insanları yanıltmak için kullanılabiliyor.” diyen Dr. Öğr. Üyesi Burak Çeber, şunları lisana getirdi:
“Öte yandan şeffaflık ve toplumsal kontrol açısından büyük bir avantaj sağlıyor; zira herkesin erişebilmesi, akademisyenlerin, araştırmacıların ve sivil toplumun süreci gözetlemesine de imkân tanıyor. Bu evrede mevzu ‘Açık kaynaklı yapay zekâ modellerinin yaygınlaşması fırsat mı, yoksa risk mi’ sorusuna sıkışmamalı. Asıl değerli olan, bu teknolojiyi sorumlu biçimde kullanmamıza yardımcı olacak unsurları, güvenlik tedbirlerini ve etik standartları geliştirmek.”
Dijital ortamdaki her cinsten içerik doğrulama sistemine doğal tutulabilmeli
Dijital ortamdaki her çeşitten içeriğin bir tıp “dijital kimlik” ya da doğrulama sistemine doğal tutulabileceğini kaydeden Dr. Öğr. Üyesi Burak Çeber, “Şimdiden büyük teknoloji şirketleri ve birtakım araştırma kurumları, görsel, metin ya da görüntülerin kaynağını gösterecek dijital filigranlar ve kimliklendirme standartları üzerinde çalışıyor. Yani bu sistem teknik olarak yapılabilir ve geliştiriliyor da. Lakin bu tek başına kâfi değil, kalıcı bir tahlil için etik ve tüzel düzenlemelere de gereksinim var.” biçiminde kelamlarını tamamladı.
Kaynak: (BYZHA) Beyaz Haber Ajansı