Kaspersky uzmanları, yapay zekânın süratli gelişiminin 2026 prestijiyle siber güvenlik ekosistemini hem kişisel kullanıcılar hem de kurumlar açısından nasıl dönüştürdüğünü ele alıyor. Büyük lisan modelleri (LLM’ler) savunma kabiliyetlerini güçlendirirken, tıpkı vakitte tehdit aktörleri için yeni fırsat alanları da yaratıyor.
Deepfake teknolojileri ana akım haline gelirken, bu alandaki farkındalık da artmaya devam ediyor. Şirketler, sentetik içeriklerin yarattığı riskleri daha sık gündeme alıyor ve çalışanlarını bu çeşit ataklara karşı bilinçlendirmeye yönelik eğitimlere yatırım yapıyor. Deepfake’lerin hacmi arttıkça, ortaya çıktıkları formatlar da çeşitleniyor. Tıpkı vakitte farkındalık sırf kurumlarla sonlu kalmıyor; kişisel kullanıcılar da uydurma içeriklerle daha sık karşılaşıyor ve bu tehditlerin tabiatını daha âlâ kavrıyor. Bu gelişmelerle birlikte deepfake’ler, güvenlik gündeminin kalıcı bir ögesi haline geliyor ve sistematik eğitim programları ile kurumsal siyasetler gerektiriyor.
Deepfake’lerin kalitesi, bilhassa ses teknolojilerindeki ilerlemeler ve kullanım bariyerlerinin düşmesiyle daha da artacak. Görsel kalite halihazırda hayli yüksek bir düzeydeyken, gerçekçi ses üretimi önümüzdeki periyodun ana gelişim alanı olarak öne çıkıyor. Öte yandan içerik üretim araçlarının giderek daha kullanıcı dostu hale gelmesi, teknik bilgiye sahip olmayan şahısların bile birkaç tıklamayla orta seviyede deepfake içerikler oluşturabilmesini mümkün kılıyor. Bu durum, ortalama kaliteyi yükseltirken üretimi çok daha geniş bir kitle için erişilebilir hale getiriyor ve bu yeteneklerin siber hatalılar tarafından kullanılmaya devam etmesi kaçınılmaz görünüyor.
Çevrim içi deepfake teknolojileri gelişimini sürdürecek lakin büyük ölçüde ileri düzey kullanıcıların aracı olmaya devam edecek. Gerçek vakitli yüz ve ses değiştirme teknolojileri ilerleme kaydetse de, bu sistemlerin suramı hâlâ ileri teknik maharetler gerektiriyor. Yaygın kullanım kısa vadede muhtemel görünmese de, amaçlı hücum senaryolarında riskler artacak. Artan gerçekçilik ve sanal kameralar üzerinden görüntü manipülasyonu yapılabilmesi, bu cins hücumları daha inandırıcı hale getiriyor.
Yapay zekâ ile üretilen içeriklerin etiketlenmesine yönelik emniyetli bir sistem oluşturma uğraşları da sürecek. Sentetik içeriklerin tespitine yönelik ortak ve bağlayıcı kriterler şimdi mevcut değil; mevcut etiketleme sistemleri ise bilhassa açık kaynak modeller kullanıldığında çarçabuk aşılabiliyor yahut kaldırılabiliyor. Bu nedenle, meseleye tahlil getirmeyi amaçlayan yeni teknik ve düzenleyici teşebbüslerin gündeme gelmesi bekleniyor.
Açık kaynaklı (open-weight) modeller, siber güvenlikle ilgili birçok vazifede kapalı modellere süratle yaklaşarak berbata kullanım potansiyelini artırıyor. Kapalı modeller, daha sıkı denetim sistemleri ve güvenlik tedbirleri sunarak suistimali sınırlıyor. Buna rağmen açık kaynaklı sistemler, süratle gelişiyor ve misal kısıtlamalar olmaksızın dolanıma giriyor. Bu durum, tescilli modeller ile açık kaynak modeller ortasındaki farkı bulanıklaştırıyor; her iki yaklaşım da istenmeyen ya da berbat niyetli emeller için tesirli biçimde kullanılabiliyor.
Meşru ve dolandırıcılık emelli yapay zekâ üretimi içerikler ortasındaki hudut giderek daha belgisiz hale gelecek. Yapay zekâ bugün dahi ikna edici dolandırıcılık e-postaları, gerçekçi görsel kimlikler ve yüksek kaliteli oltalama (phishing) sayfaları üretebiliyor. Tıpkı vakitte büyük markalar, reklam ve pazarlama faaliyetlerinde sentetik içerikleri giderek daha fazla kullanıyor ve bu durum, yapay zekâ üretimi görsellerin “normal” ve tanıdık algılanmasına yol açıyor. Sonuç olarak, gerçek ile sahteyi ayırt etmek hem kullanıcılar hem de otomatik tespit sistemleri için daha da zorlaşacak.
Yapay zekâ, siber akınlarda zincirler ortası bir araç haline gelecek ve akın ömür döngüsünün (kill chain) büyük kısmında kullanılacak. Tehdit aktörleri hâlihazırda LLM’leri kod yazımı, altyapı konseyimi ve operasyonel süreçlerin otomasyonu için kullanıyor. Önümüzdeki periyotta bu eğilim daha da güçlenecek; yapay zekâ, hazırlık ve bağlantı basamaklarından makus hedefli bileşenlerin oluşturulmasına, zafiyet taramalarından araçların devreye alınmasına kadar taarruzun birçok etabını destekleyecek. Saldırganlar ayrıyeten yapay zekâ kullanımına dair izleri gizlemeye çalışacak ve bu da bu tıp operasyonların tahlil edilmesini daha sıkıntı hale getirecek.
Kaspersky Araştırma ve Geliştirme Kümesi Yöneticisi Vladislav Tushkanov konuyla ilgili olarak şunları söylüyor: “Yapay zekâ araçları siber taarruzlarda kullanılırken, birebir vakitte güvenlik tahlillerinin de giderek daha yaygın bir modülü haline geliyor ve SOC takımlarının çalışma biçimini dönüştürüyor. Casus tabanlı sistemler, altyapıları daima olarak tarayarak zafiyetleri tespit edebilecek ve soruşturmalar için bağlamsal bilgiler toplayabilecek; böylelikle manuel ve tekrarlayan iş yükü değerli ölçüde azalacak. Bunun sonucunda uzmanlar, bilgi aramak yerine evvelden hazırlanmış bağlam üzerinden karar almaya odaklanacak. Paralel olarak güvenlik araçları, karmaşık teknik sorgular yerine doğal lisanda komutlarla çalışılan arayüzlere evrilecek.”
Kaynak: (BYZHA) Beyaz Haber Ajansı

