Yazılım tedarik zincirleri daha uzun ve daha bağlı hale geldikçe, işletmeler kendilerini üçüncü taraf zafiyetlerine karşı koruma ihtiyacının farkında olmaya başladılar. Ancak, yapay zeka chatbotlarının ve AI ajanlarının hızla benimsenmesi, bu konuda zorluk yaşamalarına neden oluyor.
Aksine, çoğu kuruluş, çalışanların AI entegrasyonları içeren AI hizmetlerine ve yazılım paketlerine erişim sağlamasına izin vererek bilinmeyen risklere maruz kalıyor, bu durumun üzerine yeterince denetim koymuyorlar.
Bu durum, Panorays’in en son Üçüncü Taraf Siber Risk Yönetimi için CISO Anketinin ana bulgularından biridir ve CISOs’un %60’ı AI tedarikçilerini özel olarak riskli olarak değerlendiriyor, bunun temel nedeni ise şeffaf olmamalarıdır.
Ancak ne kadar tehlikeli olduklarını bilmelerine rağmen, yalnızca %22’si AI teknoloji tedarikçilerini değerlendirmek için uygun süreçler oluşturmuş durumda, bu da çalışanların girdikleri komutlar aracılığıyla hassas bilgileri istemeden sızdırabilecekleri potansiyel olarak tehlikeli durumlara yol açıyor.
Panorays’a göre, bu durum, geleneksel üçüncü taraf zafiyet değerlendirme araçlarının doğru bir şekilde yakalayamadığı riskler yaratıyor, bu da kuruluşların kendilerini maruz bıraktıkları tehlikeleri gerçekten bilmemelerine neden oluyor.
Kuruluşlar AI ile Yeni Risklerle Karşılaşıyor
200 ABD CISOs’u üzerinde yapılan anket, %62’sinin AI tedarikçilerini geleneksel üçüncü taraf yazılım tedarikçilerine göre farklı bir risk profiline sahip olarak gördüğünü ortaya koyuyor; %9’u bunları önemli ölçüde farklı, %53’ü ise kısmen farklı olarak tanımlıyor.
AI chatbotlarının sorunu, çoğunun kapalı kaynak olmasıdır; bu, temel kodlarının mülkiyetine sahip olduğu anlamına gelir. Sonuç olarak, güvenlik ekipleri chatbotların kendilerine beslenen verileri nasıl işlediğini pek anlamıyor. Bu durum ayrıca, kuruluşların bunları düzgün bir şekilde denetlemeleri için kolay bir yol olmadığı anlamına geliyor.
Ayrıca, AI kullanıcıları genellikle chatbotlar hakkında güvenlik farkındalığına sahip olmadıkları için, bu modellerin içine kurumsal sırlar ve müşteri verileri gibi hassas bilgileri istemeden besleme riski artmaktadır.
AI sistemlerinin beslenen verileri nasıl kullandığı konusunda pek çok belirsizlik olmasına rağmen, daha sonra nasıl ifşa olabileceğine dair anekdot niteliğindeki kanıtlar cesaret verici değil. Bu durumun en kötü örneklerinden biri, 2023 yılında Samsung’un yaşadığı bir olaydır; burada çalışanlarının ChatGPT’ye mülkiyet kodu ve üst düzey yöneticilerin katıldığı gizli iç toplantıların tutanaklarını yapıştırdığı keşfedilmiştir.
Her iki durumda da, ChatGPT bu verileri tutuyor gibi görünüyordu ve temel büyük dil modelini geliştirmek için eğitimde kullanıyordu; bu da daha sonraki komutlara yanıt olarak çıktıyı etkileyebileceği anlamına geliyor. Komut enjeksiyonları ve komut sızıntıları, LLM geliştiricileri tarafından nadiren rapor edilmiştir, ancak gerçekten de meydana geldiği bilinmektedir.
CISOs Yeterince Önlem Almıyor
En endişe verici olan, CISOs’un bu riskleri ele almak için pek bir şey yapmıyor gibi görünmesidir. AI chatbotlarının tehlikelerini bilmelerine rağmen, %52’si hala AI araçlarını devreye almak için geleneksel üçüncü taraf yazılım tedarikçilerini değerlendirmek için kullandıkları genel süreçlere güveniyor. Ancak, AI chatbotlarının geleneksel yazılımlara kıyasla öngörülemez doğası, genel amaçlı devreye almanın bu görev için açıkça uygun olmadığını göstermektedir.
Panorays, yalnızca %22’sinin AI araçlarını değerlendirmek için özel ve belgelenmiş politikalar geliştirdiğini buldu; %25’i ise daha arzu edilir olabilen, ancak standartlaşma eksikliği nedeniyle hala riskler taşıyan gayri resmi veya vaka bazlı değerlendirmelere güveniyor.
Üçüncü taraf AI araçlarının devreye alınmasında uygun süreçlerin eksikliği, CISOs’un üçüncü taraf zafiyetleriyle ilgili görünürlüklerinin azaldığını kabul etmelerinin başlıca nedenlerinden biridir. Anket, katılımcıların yalnızca %17’sinin bu tür tehditler üzerinde tam görünürlüğe sahip olduğunu ortaya koyuyor; bu da %83’ünün kuruluşlarının tehdit yüzeyinin ne kadar büyük ve geniş olduğunu bilmediği anlamına geliyor.
Bu durum, %60’ının son bir yıl içinde üçüncü taraf zafiyetlerinden kaynaklanan olayların arttığını bildirmesini açıklıyor.
Raporun bir olumlu yanı, CISOs’un en azından AI için yeni bir devreye alma yaklaşımının gerekliliğini kabul etmesidir ve bazı büyük kuruluşların bu konuda adım attığına dair kanıtlar bulunmaktadır. Sonuçları detaylandıran Panorays, 10.000 veya daha fazla çalışanı olan şirketlerin %38’inin AI’ye özel devreye alma politikaları oluşturduğunu, 5.000 ile 9.999 çalışanı olan kuruluşların yalnızca %26’sının ve 5.000’den az çalışanı olan firmaların sadece %10’unun bu tür politikalar geliştirdiğini belirtti.
Bu bulgular, CISO’nun rolünün evrilen doğasını vurgulamaktadır. AI araçları, hızlı karar verme ve artırılmış verimlilik sağladıkları için işletme çalışanları arasında son derece popüler hale gelmiştir.
Kısacası, hayatı kolaylaştırıyorlar ve çalışanların daha fazla iş yapmasını sağlıyorlar; bu faydalar kolayca göz ardı edilemez. Ancak, bu durum aynı zamanda CISOs üzerinde daha fazla baskı oluşturuyor; AI entegrasyonunu daha sağlam değerlendirme ve güvenlik önlemleri ile dengelemeleri gerekiyor ki uyum sağlansın ve hassas veriler sızmasın.
Politikaların Gerisinde Kalan Benimseme
Panorays’ın belirttiği gibi, bulgular kuruluşların AI araçlarını güvence altına almaktan daha hızlı benimsediğini, bu durumun riskli modellere her türlü hassas bilgiye erişim sağlama konusunda doğru bir denetim olmadan tehlikeli bir görünürlük açığı yarattığını göstermektedir.
Neyse ki, CISOs en azından AI’ye özel devreye alma politikalarının acil gerekliliğini kabul ediyor gibi görünüyor ve bunları uygulamak, önümüzdeki aylarda öncelikli hedeflerinden biri olacaktır.