Gölge yapay zekâ çalışanlar için kolaylık, şirketler için risk
OpenAI’ın ChatGPT aracının 2023’te büyük muvaffakiyet elde etmesinden bu yana, chatbot birinci iki ayında 100 milyon kullanıcıya ulaştı. Çalışanlar, hayatlarını kolaylaştıracak üretken yapay zekânın potansiyelinden çok etkilendiler. Microsoft, yapay zekâ kullanıcılarının yüzde 78’inin artık kendi araçlarını işe getirdiğini varsayım ediyor. Bu durum kurumsal yapılarda güvenlik risklerini de beraberinde getiriyor. Siber güvenlik çözümlerinde dünya lideri olan ESET, gölge yapay zekâyı mercek altına aldı. Gölge yapay zekâ, kurumsal kontrol olmaksızın kullanılan yetkisiz yapay zekâ araçlarını ve teknolojilerini söz ediyor. ChatGPT, Gemini yahut Claude üzere tanınan sohbet robotları, cep telefonlarına yahut meskenden çalışma dizüstü bilgisayarlarına kolay kolay indirilip kullanılabiliyor. Bu robotlar, kimi çalışanlara iş yükünü azaltma, teslim tarihlerini kolaylaştırma ve daha yüksek kıymetli vazifelere vakit ayırma üzere cazip bir mümkünlük sunuyor. ChatGPT üzere bağımsız uygulamalar, gölge yapay zekâ problemlerinin büyük bir kısmını oluşturur. Lakin bunlar sorunun tüm boyutunu temsil etmez. Bu teknoloji, tarayıcı uzantıları aracılığıyla da işletmelere sızabilir. Hatta kullanıcıların BT departmanının bilgisi olmadan aktifleştirdiği yasal iş yazılımı eserlerinde de bulunabilir. Bir de casuslu yapay zekâ var: Otonom casuslar etrafında şekillenen ve beşerler tarafından kendilerine verilen muhakkak misyonları bağımsız olarak tamamlamak üzere tasarlanmış yapay zekâ inovasyonunun bir sonraki dalgası. Gerçek muhafaza tedbirleri alınmazsa bu casuslar hassas data depolarına erişebilir ve yetkisiz yahut makus niyetli hareketler gerçekleştirebilir. Farkına varıldığında ise artık çok geç olabilir.Gölge yapay zekâ riskleri nelerdir?Bunların tümü, kuruluşlar için büyük potansiyel güvenlik ve uyumluluk riskleri oluşturuyor. Her komutta, çalışanların hassas yahut düzenlemeye tabi dataları paylaşma riski vardır. Bu bilgiler toplantı notları, IP, kod yahut müşteri ya da çalışanların ferdî olarak tanımlanabilir bilgileri olabilir. Girilen her şey modeli eğitmek için kullanılır, gelecekte öbür kullanıcılara aktarılabilir. Üçüncü taraf sunucularda depolanır. Bu durum chatbot geliştiricisinin çalışanlarının hassas bilgilerini görmesine imkan tanıyarak kuruluşu daha da riske atar. Çinli sağlayıcı DeepSeek’te olduğu üzere, datalar bu sağlayıcı tarafından sızdırılabilir yahut ihlal edilebilir. Sohbet robotları, kuruluşu farkında olmadan maksatlı tehditlere maruz bırakan yazılım güvenlik açıkları yahut art kapılar içerebilir. İş emelli bir sohbet robotu indirmek isteyen rastgele bir çalışan, makinesinden saklı bilgileri çalmak için tasarlanmış makûs emelli bir sürümü ezkaza yükleyebilir. Bu emelle açıkça tasarlanmış birçok düzmece GenAI aracı bulunmaktadır. Kodlama araçlarının müsaadesiz kullanımı, çıktıların uygun biçimde incelenmemesi durumunda müşteriye sunulan eserlere istismar edilebilir yanılgılar getirebilir. Modeller önyargılı yahut düşük kaliteli datalarla eğitilmişse yapay zekâ dayanaklı tahlil araçlarının kullanımı bile riskli olabilir ve yanlışlı karar almaya yol açabilir. Gölge yapay zekâ ile ilişkili güvenlik ihlalleri, ahenk cezaları da dâhil olmak üzere kıymetli mali ve prestij kaybına neden olabilir. Riskleri azaltmak için neler yapılabilir?Risklerle başa çıkmak için bulduğunuz her yeni gölge yapay zekâ aracını bir reddetme listesine eklemek kâfi olmayacaktır. Bu teknolojilerin kullanıldığını kabul etmeniz, ne kadar yaygın ve hangi maksatlarla kullanıldığını anlamanız ve akabinde gerçekçi bir kabul edilebilir kullanım siyaseti oluşturmanız gerekir. Güvenlik ve ahenk risklerinin nerede olduğunu anlamak için şirket içi testler yapılmalıdır. Muhakkak araçların yasaklandığı durumlarda, kullanıcıları bu araçlara geçmeye ikna edebileceğiniz alternatifler bulmaya çalışın. Ayrıyeten çalışanların şimdi keşfetmediğiniz yeni araçlara erişim talep edebilecekleri sıkıntısız bir süreç oluşturun. Çalışanlara eğitim verin ve gölge yapay zekâ kullanarak ne üzere riskler alabileceklerini bildirin. Bilgi sızıntısı risklerini azaltmak ve yapay zekâ kullanımına ait görünürlüğü artırmak için ağ izleme ve güvenlik araçlarını değerlendirin. Kaynak: (BYZHA) Beyaz Haber Ajansı