TechNewsWorld’e verdiği demeçte, “Siber savaşın her iki tarafında da yapay zekanın giderek daha fazla kullanılacağını biliyoruz.” dedi. “Ancak saldırganlar, yapay zekanın doğruluğu, etiği veya beklenmeyen sonuçlar konusunda daha az endişe duydukları için daha az kısıtlanmaya devam edecekler. Son derece kişiselleştirilmiş kimlik avı ve eski zayıflıklar için ağları tarama gibi teknikler yapay zekadan faydalanacak.”
“Yapay zekanın savunma açısından büyük bir potansiyeli olsa da, benimsenmesini yavaşlatacak hem yasal hem de pratik daha fazla kısıtlama var” dedi.
Çevrimiçi tüketici güvenliği ve gizlilik rehberleri yayımlayan Pixel Privacy’de tüketici gizliliği şampiyonu olan Chris Hauk , 2025’in yapay zekanın yapay zekaya karşı mücadele yılı olacağını, iyi adamların yapay zeka destekli siber saldırılara karşı savunmak için yapay zekayı kullanacağını öngördü.
TechNewsWorld’e yaptığı açıklamada, “Her iki tarafın da önceki saldırılardan topladıkları bilgileri kullanarak yeni saldırılar ve yeni savunmalar kurması nedeniyle, bu yıl muhtemelen ileri geri mücadelelerin yaşanacağı bir yıl olacak.” dedi.
Yapay Zekanın Güvenlik Risklerini Azaltma
Leichter ayrıca siber saldırganların AI sistemlerini daha sık hedef almaya başlayacağını öngördü. “AI teknolojisi, modeller, veri kümeleri ve makine dili operasyon sistemlerine yönelik hızla ortaya çıkan tehditlerle saldırı yüzey alanını büyük ölçüde genişletiyor,” diye açıkladı. “Ayrıca, AI uygulamaları laboratuvardan üretime aceleyle getirildiğinde, kaçınılmaz ihlaller gerçekleşene kadar tam güvenlik etkisi anlaşılmayacaktır.”
Honolulu merkezli bir kimlik güvenliği şirketi olan Lastwall’un kurucusu ve CEO’su Karl Holmqvist de aynı fikirde. TechNewsWorld’e verdiği demeçte, “Genellikle sağlam güvenlik temelleri olmadan devreye alınan AI araçlarının kontrolsüz, kitlesel dağıtımı 2025’te ciddi sonuçlara yol açacak” dedi.
“Yeterli gizlilik önlemleri ve güvenlik çerçevelerinden yoksun olan bu sistemler, ihlaller ve manipülasyonlar için birincil hedefler haline gelecektir,” dedi. “AI dağıtımına yönelik bu Vahşi Batı yaklaşımı, verileri ve karar alma sistemlerini tehlikeli bir şekilde açığa çıkaracak ve kuruluşları bu artan riskleri azaltmak için temel güvenlik kontrollerine, şeffaf AI çerçevelerine ve sürekli izlemeye acilen öncelik vermeye zorlayacaktır.”
En büyük CX veri setinden gerçek içgörüler
Leichter ayrıca 2025 yılında güvenlik ekiplerinin yapay zeka sistemlerinin güvenliğini sağlama konusunda daha fazla sorumluluk alması gerekeceğini savundu.
“Bu kulağa bariz geliyor, ancak birçok organizasyonda, ilk AI projeleri genellikle geleneksel uygulama güvenlik süreçlerini atlayan veri bilimcileri ve iş uzmanları tarafından yönetiliyor,” dedi. “Güvenlik ekipleri, AI girişimlerini engellemeye veya yavaşlatmaya çalışırlarsa kaybedilen bir savaşta mücadele edecekler, ancak sahte AI projelerini güvenlik ve uyumluluk şemsiyesi altına almak zorunda kalacaklar.”
Leichter ayrıca AI’nın 2025’te yazılım tedarik zincirlerini hedef alan saldırganlar için saldırı yüzeyini genişleteceğine dikkat çekti. “Karmaşık yazılım yığınları büyük ölçüde üçüncü taraf ve açık kaynak koduna dayandığından tedarik zincirlerinin saldırı için önemli bir vektör haline geldiğini gördük” dedi. “AI benimsenmesinin patlaması, veri kümeleri ve modeller üzerinde yeni karmaşık saldırı vektörleriyle bu hedefi daha da büyütüyor.”
“Modellerin soyunu anlamak ve değişen veri kümelerinin bütünlüğünü korumak karmaşık bir sorundur ve şu anda bir yapay zeka modelinin zehirli verileri öğrenmesini engellemenin uygulanabilir bir yolu yoktur” diye ekledi
Yapay Zeka Modellerine Yönelik Veri Zehirleme Tehditleri
Ridgefield, Conn.’daki bir yazılım tedarik zinciri güvenlik şirketi olan Kusari’nin CTO’su ve kurucu ortağı Michael Lieberman da büyük dil modellerini zehirlemeyi 2025’te önemli bir gelişme olarak görüyor. TechNewsWorld’e verdiği demeçte, “LLM’leri manipüle etmeyi amaçlayan veri zehirleme saldırıları daha yaygın hale gelecek, ancak bu yöntem kötü amaçlı açık LLM’leri dağıtmak gibi daha basit taktiklere kıyasla muhtemelen daha fazla kaynak yoğun.” dedi.
“Çoğu kuruluş kendi modellerini eğitmiyor,” diye açıkladı. “Bunun yerine, genellikle ücretsiz olarak sunulan önceden eğitilmiş modellere güveniyorlar. Bu modellerin kökenleri konusunda şeffaflığın olmaması, kötü niyetli aktörlerin zararlı olanları tanıtmasını kolaylaştırıyor; Hugging Face kötü amaçlı yazılım olayında da görüldüğü gibi.” Bu olay, 2024’ün başlarında, kullanıcıların makinelerinde keyfi kod çalıştırabilen gizli arka kapılar içeren yaklaşık 100 LLM’nin Hugging Face platformuna yüklendiği keşfedildiğinde meydana geldi.
Lieberman, “Gelecekteki veri zehirleme çabalarının, modellerini geniş veri kümeleri üzerinde eğiten ve bu tür saldırıların tespit edilmesini zorlaştıran OpenAI, Meta ve Google gibi büyük oyuncuları hedef alması muhtemeldir” öngörüsünde bulundu.
CX Liderlerinin Büyük Sonuçlar İçin Farklılaşmalarının 5 Yolu
“2025’te saldırganların savunmacıları geride bırakması muhtemel,” diye ekledi. “Saldırganlar finansal olarak motive olurken, savunmacılar genellikle yeterli bütçeleri güvence altına almakta zorlanırlar çünkü güvenlik genellikle bir gelir kaynağı olarak görülmez. Sektörün tehdidi ciddiye alması için SolarWinds Sunburst olayına benzer önemli bir yapay zeka tedarik zinciri ihlali gerekebilir.”
Yapay zeka sayesinde, 2025’te daha karmaşık saldırılar başlatan daha fazla tehdit aktörü de olacak. “Yapay zeka daha yetenekli ve erişilebilir hale geldikçe, daha az yetenekli saldırganlar için giriş engeli azalırken saldırıların gerçekleştirilebileceği hız da artacak” diye açıklıyor Kaliforniya, San Mateo’daki bir SaaS güvenlik yönetimi yazılım şirketi olan AppOmni’de kıdemli bulut tehdit algılama mühendisi olan Justin Blackburn.
“Ayrıca, AI destekli botların ortaya çıkması, tehdit aktörlerinin asgari çabayla büyük ölçekli saldırılar gerçekleştirmesini sağlayacak,” dedi TechNewsWorld’e. “Bu AI destekli araçlarla donatılmış, daha az yetenekli saldırganlar bile hassas verilere yetkisiz erişim elde edebilir ve daha önce yalnızca daha sofistike, iyi finanse edilen saldırganlar tarafından görülen bir ölçekte hizmetleri bozabilir.”
Senaryo Bebekler Büyüyor
2025’te, bağımsız kararlar alabilen, çevrelerine uyum sağlayabilen ve doğrudan insan müdahalesi olmadan eylemde bulunabilen ajansal AI’nın yükselişi, savunucular için de sorunları daha da kötüleştirecek. Maryland Üniversitesi Küresel Kampüsü’nde siber güvenlik ve bilgi teknolojileri okulunda yardımcı doçent olan Jason Pittman , “Yapay zekadaki ilerlemelerin devlet dışı aktörlerin otonom siber silahlar geliştirmesini sağlaması bekleniyor” dedi.
TechNewsWorld’e verdiği demeçte, “Agent AI, hedef odaklı davranışlarla otonom bir şekilde çalışır,” dedi. “Bu tür sistemler, insan yönlendirmesi olmadan gerçek zamanlı olarak güvenlik açıklarını belirlemek, sistemlere sızmak ve taktiklerini geliştirmek için sınır algoritmalarını kullanabilir.”
“Bu özellikler onu, önceden tanımlanmış talimatlara dayanan ve insan girdisi gerektiren diğer yapay zeka sistemlerinden ayırıyor” diye açıkladı.
“Geçmiş on yıllardaki Morris Worm gibi, ajan siber silahların serbest bırakılması bir kaza olarak başlayabilir ve bu daha sorunludur. Bunun nedeni, gelişmiş AI araçlarının erişilebilirliği ve açık kaynaklı makine öğrenimi çerçevelerinin yaygınlaşmasının, karmaşık siber silahlar geliştirmenin önündeki engelleri düşürmesidir. Bir kez yaratıldığında, güçlü özerklik özelliği ajan AI’nın güvenlik önlemlerinden kaçmasına kolayca yol açabilir.”
Müşteri Hizmetlerinizi Ölçekte Otomatikleştirin
Yapay zeka tehdit aktörlerinin elinde ne kadar zararlı olsa da, kişisel olarak tanımlanabilir bilgiler (PII) gibi verilerin daha iyi güvence altına alınmasına da yardımcı olabilir. Londra’daki bir veri gizliliği platformu olan Metomic’in kurucu ortağı ve CEO’su Rich Vibert, “Altı milyondan fazla Google Drive dosyasını analiz ettikten sonra, dosyaların %40’ının işletmeleri veri ihlali riskine sokan PII içerdiğini keşfettik” dedi.
“2025’e girerken, daha fazla şirketin, SaaS ve bulut ortamlarındaki herkese açık dosyalarda ve ortak çalışma alanlarında yanlışlıkla kaydedilen savunmasız bilgi miktarını azaltmak için otomatik veri sınıflandırma yöntemlerine öncelik verdiğini göreceğiz” diye devam etti.
“İşletmeler hassas bilgileri otomatik olarak tanımlayabilen, etiketleyebilen ve güvence altına alabilen yapay zeka destekli araçları giderek daha fazla kullanacak,” dedi. “Bu değişim, şirketlerin günlük olarak üretilen muazzam miktardaki verilerle başa çıkabilmesini, hassas verilerin sürekli olarak güvence altına alınmasını ve gereksiz veri ifşasının en aza indirilmesini sağlayacak.”
Bununla birlikte, AI hakkındaki abartı fana çarptığında 2025, güvenlik uzmanları arasında bir hayal kırıklığı dalgasının da habercisi olabilir. “CISO’lar, ölçülebilir değer eksikliği nedeniyle nesil AI kullanımını %10 oranında önceliksizleştirecek,” diye yazdı Cody Scott, merkezi Cambridge, Mass.’te bulunan bir pazar araştırma şirketi olan Forrester Research’ün kıdemli analisti , bir şirket blogunda.
“Forrester’ın 2024 verilerine göre, küresel CISO’ların ve CIO’ların %35’i, çalışan üretkenliğini iyileştirmek için gen AI için kullanım durumlarını keşfetmeyi ve dağıtmayı en önemli öncelik olarak görüyor,” diye belirtti. “Güvenlik ürünleri pazarı, gen AI’nın beklenen üretkenlik faydalarını abartmakta hızlı davrandı, ancak pratik sonuçların eksikliği hayal kırıklığına yol açıyor.”
“Gen AI kullanan otonom bir güvenlik operasyon merkezi fikri çok fazla abartı yarattı, ancak gerçeklikten çok uzak,” diye devam etti. “2025’te bu trend devam edecek ve güvenlik uygulayıcıları, yetersiz bütçeler ve gerçekleştirilemeyen AI faydaları gibi zorlukların güvenliğe odaklı gen AI dağıtımlarının sayısını azaltmasıyla daha da derin bir hayal kırıklığına sürüklenecek.”