Ana Sayfa Paylaşımlar Siber Güvenliğin Dönüşümünde Etkin Güç: Yapay Zekâ

Siber Güvenliğin Dönüşümünde Etkin Güç: Yapay Zekâ

Tevfik Bulut

Yapay zekâ yıllardır siber güvenlik araçlarını geliştirmekte ve dönüştürmektedir. Örneğin, makine öğrenimi araçları anomalileri insanlardan çok daha hızlı bularak ağ güvenliği, kötü amaçlı yazılımdan koruma ve dolandırıcılık tespit yazılımlarını daha güçlü hale getirmiştir. Bununla birlikte, yapay zekâ siber güvenlik için bir risk de oluşturmuştur. Hizmet reddi (DoS) ve sosyal mühendislik saldırıları, yapay zekâyı kullanan tehditlere sadece birkaç örnektir.

Yapay zekânın siber güvenliğe yönelik risklerinin, yapay zekâ araçlarının daha ucuz ve daha erişilebilir hale gelmesiyle birlikte hızla artması beklenmektedir. Örneğin, ChatGPT’yi kullanarak kötü amaçlı bir kod ya da Elon Musk’tan bağış isteyen bir mektup yazdırabilirsiniz.

Çok az eğitim verisiyle şaşırtıcı derecede ikna edici sahte ses parçaları veya video klipler oluşturmak için bir dizi deepfake aracı da kullanabilirsiniz. Ayrıca, daha fazla kullanıcı hassas bilgilerini yapay zeka ile paylaşma konusunda rahat davrandıkça gizlilikle ilgili endişeler de artış göstermektedir. Bu yazıda ele alınan konu başlıkları şöyledir:

• Yapay zekâ tanımı
• Yapay zekânın riskleri
• Siber güvenlikte yapay zekâ
• Yapay zekâ ve gizlilik riskleri

Yapay Zekâ

Yapay zekâ (YZ), tipik olarak insan zekâsı gerektiren görevleri yerine getirebilen ve kararlar alabilen bilgisayar sistemlerini ifade eder. YZ, makinelerin verilerden öğrenmesini, kalıpları tanımasını ve yeni bilgilere veya durumlara uyum sağlamasını sağlayan algoritmalar ve modeller oluşturmayı içerir.

Basit bir ifadeyle YZ, bilgisayarlara insanlar gibi düşünmeyi ve öğrenmeyi öğretmek gibidir. Makinelerin büyük miktarda veriyi işlemesine ve analiz etmesine, kalıpları veya anormallikleri tanımlamasına ve bu bilgilere dayanarak tahminler veya kararlar almasına olanak tanır. YZ, görüntü ve konuşma tanıma, doğal dil işleme, robotik ve siber güvenlik gibi çeşitli uygulamalarda kullanılabilir.

Genel olarak YZ, karmaşık sorunları çözmek, görevleri otomatikleştirmek ve farklı alanlarda verimliliği ve doğruluğu artırmak için insan zekâsını taklit etmeyi amaçlamaktadır.

Makine öğrenimi ve derin öğrenme

Makine öğrenimi (ML), yapay zekânın yaygın olarak kullanılan bir alt kümesidir. Makine öğrenimi algoritmaları ve teknikleri, sistemlerin açıkça programlanmadan verilerden öğrenmesine ve kararlar almasına olanak tanır.

Derin öğrenme (DL), daha gelişmiş görevler için sinir ağları adı verilen insan beyninden esinlenen yapay hesaplama modellerinden yararlanan bir makine öğrenimi alt kümesidir. ChatGPT, insan tarafından oluşturulan istemleri anlamak ve bunlara yanıt vermek için makine öğrenimini kullanan bir YZ örneğidir.

Dar yapay zekâ ve yapay genel zekâ

Tüm YZ türleri Dar YZ olarak kabul edilir. Kapsamları sınırlıdır ve bilinçli değildirler. Bu tür YZ’ye örnek olarak sesli asistanlar, sohbet robotları, görüntü tanıma sistemleri, sürücüsüz diğer bir ifadeyle otonom araçlar ve bakım modelleri verilebilir.

Yapay genel zekâ (YGZ), insan zekâsıyla eşleşebilen ve hatta onu aşabilen, öz farkındalığa sahip bir YZ’yi ifade eden varsayımsal bir kavramdır. Bazı uzmanlar YGZ’nin birkaç yıl uzakta olduğunu tahmin ederken, diğerleri bunun imkansız olduğuna inanmaktadır.

Üretken yapay zekâ nedir?

Üretken yapay zekâ, görüntü, metin, ses ve hatta video gibi yeni içeriklerin oluşturulmasını ve üretilmesini içeren yapay zekâ tekniklerinin bir alt kümesini ifade eder. Mevcut verilerdeki kalıpları anlamak için modellerin eğitilmesini ve ardından bu bilginin eğitim verilerine benzeyen yeni, orijinal içerik oluşturmak için kullanılmasını içerir.

Üretken yapay zekâya yönelik popüler yaklaşımlardan biri üretken çekişmeli ağların (GAN’lar) kullanılmasıdır. GAN’lar iki sinir ağından oluşur: bir üretici ağı ve bir ayırıcı ağı. Üretici ağ yeni içerik oluştururken, ayırt edici ağ oluşturulan içerik ile gerçek içerik arasında değerlendirme ve ayrım yapar. İki ağ rekabetçi bir şekilde çalışır; üretici, ayırt edicinin gerçek verilerden ayırt edemeyeceği içerik üretmeye çalışır.

Üretken yapay zekânın çeşitli alanlarda uygulamaları vardır:

• Görüntü Üretimi: Üretken YZ, fotogerçekçi yüzler, manzaralar ve hatta gerçek dünyada var olmayan tamamen yeni nesneler oluşturmak gibi gerçekçi görüntüler üretmek için kullanılabilir.
• Metin Üretimi: Üretken modeller, sohbet robotları, içerik oluşturma veya dil çevirisi gibi görevler için kullanılabilecek tutarlı ve bağlamsal olarak alakalı metinler üretmek üzere eğitilebilir.
• Müzik ve Ses Üretimi: Üretken YZ yeni müzik besteleri oluşturabilir veya gerçekçi sesler ve sesler üretebilir.

Üretken YZ’nin birçok olumlu uygulaması olsa da, insanları aldatmak veya manipüle etmek için kullanılabilecek sahte içerik veya deepfake videolar oluşturmak gibi potansiyel kötüye kullanımıyla ilgili endişeler de vardır. Etik hususlar ve üretken YZ’nin sorumlu kullanımı, bu riskleri ele almak için önemli faktörlerdir.

Siber güvenlik alanında, üretken YZ hem bir araç hem de bir zorluk olabilir. Modelleri eğitmek ve güvenlik önlemlerini iyileştirmek için gerçekçi sentetik veriler üretmek için kullanılabilir. Ancak ikna edici kimlik avı e-postaları veya deepfake sosyal mühendislik saldırıları oluşturmak gibi kötü niyetli amaçlarla kullanıldığında da risk oluşturabilir. Bu durum, potansiyel tehditleri azaltmak için sağlam savunma ve tespit mekanizmaları geliştirmenin önemini vurgulamaktadır.

Siber güvenlikte yapay zekânın riskleri nelerdir?

Her teknoloji gibi yapay zekâ da iyi ya da kötü amaçlar için kullanılabilir. Tehdit aktörleri, dolandırıcılık, sahtekarlık ve diğer siber suçları işlemek için insanlığa yardımcı olmak üzere tasarlanmış aynı yapay zeka araçlarından bazılarını kullanabilir.
Siber güvenlikte yapay zekânın bazı riskleri şöyledir:

1) Siber saldırı optimizasyonu

Uzmanlar saldırganların, saldırıları daha önce görülmemiş bir hız ve karmaşıklık düzeyinde ölçeklendirmek için üretken yapay zekâ ve büyük dil modellerini kullanabileceğini ifade etmektedir. Bulut ortamlarını zayıflatmanın yeni yollarını bulmak ve gelişmiş saldırılarda jeopolitik gerilimlerden yararlanmak için üretken yapay zekâyı kullanabilirler. Ayrıca fidye yazılımlarını ve kimlik avı saldırı tekniklerini üretken yapay zekâ ile parlatarak optimize edebilirler.

2) Otomatik kötü amaçlı yazılım

ChatGPT gibi yazılımlar kullanıcıların kötü amaçlı kod oluşturmasını engellemek için bazı korumalara sahip olsa da, uzmanlar bunu aşmak ve kötü amaçlı yazılım oluşturmak için akıllı teknikler kullanabilir. Bu buzdağının görünen kısmı olabilir. Gelecekte yapay zekâ destekli araçlar, giriş seviyesi programlama becerilerine sahip geliştiricilerin gelişmiş bir kötü amaçlı bot gibi otomatik kötü amaçlı yazılımlar oluşturmasına olanak sağlayabilir. Peki, kötü niyetli bot nedir? Kötü niyetli bir bot, çok az insan müdahalesi ile veya hiç insan müdahalesi olmadan veri çalabilir, ağlara bulaşabilir ve sistemlere saldırabilir.

3) Fiziksel güvenlik

Otonom araçlar, üretim ve inşaat ekipmanları ve tıbbi sistemler gibi daha fazla sistem yapay zekâ kullandıkça, yapay zekânın fiziksel güvenliğe yönelik riskleri artabilir. Örneğin, siber güvenlik ihlaline maruz kalan yapay zekâ tabanlı gerçek bir sürücüsüz otomobil, yolcularının fiziksel güvenliği için risklere neden olabilir. Benzer şekilde, bir şantiyedeki bakım araçları, bir saldırgan tarafından tehlikeli koşullar yaratacak şekilde manipüle edilebilir.

YZ gizlilik riskleri

ChatGPT, bazı kullanıcıların sohbet geçmişinin bir kısmını sızdırmıştır. Hata düzeltilmiş olsa da, yapay zekânın sızdırdığı büyük miktarda veri nedeniyle başka olası gizlilik riskleri de vardır. Örneğin, bir YZ sistemini ihlal eden bir bilgisayar korsanı farklı türde hassas bilgilere erişebilir.

Yapay zekâ modellerinin çalınması

Ağ saldırıları, sosyal mühendislik teknikleri ve devlet destekli ajanlar, kurumsal casuslar gibi içeriden tehditler ve sıradan bilgisayar korsanları gibi tehdit aktörleri tarafından güvenlik açığından yararlanma yoluyla yapay zekâ modelinin çalınmasına ilişkin bazı riskler vardır. Çalınan modeller, saldırganlara farklı kötü niyetli faaliyetlerde yardımcı olmak için manipüle edilebilir ve değiştirilebilir, bu da toplum için yapay zekâ risklerini artırır.

Veri manipülasyonu ve veri zehirlenmesi

Yapay zekâ güçlü bir araç olsa da, veri manipülasyonuna karşı savunmasız olabilir. Sonuçta, YZ eğitim verilerine bağımlıdır. Veriler değiştirilir veya zehirlenirse, yapay zekâ destekli bir araç beklenmedik ve hatta kötü niyetli sonuçlar üretebilir.

Teorik olarak, bir saldırgan modelin sonuçlarını değiştirmek için bir eğitim veri setini kötü amaçlı verilerle zehirleyebilir. Bir saldırgan ayrıca yanlılık enjeksiyonu adı verilen daha ince bir manipülasyon biçimini de başlatabilir. Bu tür saldırılar özellikle sağlık, otomotiv ve ulaşım gibi sektörlerde zararlı olabilir.

Kimliğe bürünme

Yapay zekâ destekli araçların film yapımcılarının izleyicileri yanıltmasına nasıl yardımcı olduğunu görmek için sinemadan daha uzağa bakmanıza gerek yoktur. Örneğin Roadrunner belgeselinde, Anthony Bourdain’in sesi yapay zekâ tarafından üretilen sesle oluşturulmuştur. Benzer şekilde, usta aktör Harrison Ford, Indiana Jones and the Dial of Destiny (Indiana Jones ve Kader Kadranı) filminde yapay zekânın gücüyle ikna edici bir şekilde yaşlandırılmıştır.

Bir saldırganın benzer hileler yapmak için büyük bir Hollywood bütçesine ihtiyacı yoktur. Doğru görüntülere sahip olan herkes ücretsiz uygulamalar kullanarak deepfake görüntüler oluşturabilir. İnsanlar aynı zamanda sadece birkaç saniyelik ses üzerinde eğitilmiş son derece gerçekçi sahte sesler oluşturmak için yapay zekâ destekli ücretsiz araçlar da kullanabilir.

Üretken YZ ayrıca düşünce liderlerinin sesiyle metin de üretebilir. Siber suçlular bu metni, e-posta veya Twitter gibi sosyal medya platformlarında sahte eşantiyonlar, yatırım fırsatları ve bağışlar gibi farklı dolandırıcılık türlerini yürütmek için kullanabilir.

Daha sofistike saldırılar

Belirtildiği gibi tehdit aktörleri gelişmiş kötü amaçlı yazılımlar oluşturmada, dolandırıcılık için başkalarını taklit etmede ve yapay zekâ eğitim verilerini zehirlemede yapay zekâyı kullanabilir. Kimlik avı, kötü amaçlı yazılım ve kimlik bilgisi doldurma saldırılarını otomatikleştirmek için yapay zekâyı kullanabilirler. YZ ayrıca, düşmanca saldırılar olarak adlandırılan saldırılarda ses tanıma yazılımı gibi güvenlik sistemlerinden kaçmaya yardımcı olabilir.

İtibar kaybı

Yapay zekâ kullanan bir kuruluş, teknolojinin arızalanması veya veri kaybına neden olan bir siber güvenlik ihlaline maruz kalması durumunda itibar kaybına uğrayabilir. Bu tür kuruluşlar para cezaları, hukuki cezalar ve bozulan müşteri ilişkileri ile karşı karşıya kalabilir.

Kendinizi yapay zekâ risklerinden nasıl korursunuz?

Yapay zekâ güçlü bir araç olsa da, bazı siber güvenlik riskleri ortaya çıkarabilir. Hem bireyler hem de kuruluşlar teknolojiyi güvenli bir şekilde kullanmak için bütünsel ve proaktif bir yaklaşım benimsemelidir. Yapay zekânın risklerini azaltmanıza yardımcı olabilecek bazı ipuçları şöyledir:

1) Kullandığınız tüm yapay zekâ sistemlerini denetleyin.

Güvenlik ve gizlilik sorunlarından kaçınmak için kullandığınız herhangi bir YZ sisteminin mevcut durumunu kontrol edin. Kuruluşlar, güvenlik açıklarını kapatmak ve YZ risklerini azaltmak için sistemlerini periyodik olarak denetlemelidir. Denetim, sızma testlerini, güvenlik açığı değerlendirmelerini ve sistem incelemelerini tamamlayabilecek siber güvenlik ve yapay zekâ uzmanlarının yardımıyla yapılabilir.

2) Otomasyon yoluyla paylaşılan kişisel bilgileri sınırlayın.

Daha fazla insan, yapay zekânın gizliliğe yönelik risklerini anlamadan gizli bilgileri yapay zekâ ile paylaşıyor. Örneğin, önde gelen kuruluşlarda çalışan personelin hassas şirket verilerini ChatGPT’ye girdiği tespit edilmiştir. Hatta bir doktor, ChatGPT güvenlik riskinin farkında olmadan hastasının adını ve tıbbi durumunu bir mektup hazırlamak için chatbot’a göndermiştir.
Bu tür eylemler güvenlik riskleri oluşturmakta ve HIPAA gibi gizlilik düzenlemelerini ihlal etmektedir. Yapay zekâ dil modelleri bilgileri ifşa edemese de, konuşmalar kalite kontrol için kaydedilir ve sistem bakım ekipleri tarafından erişilebilir. Bu nedenle, herhangi bir kişisel bilgiyi yapay zekâ ile paylaşmaktan kaçınmak en iyi uygulamadır.

3) Veri güvenliği

Daha önce de belirtildiği gibi, YZ iyi sonuçlar elde etmek için eğitim verilerine dayanır. Veriler değiştirilir veya zehirlenirse, YZ beklenmedik ve tehlikeli sonuçlar verebilir. YZ’yi veri zehirlenmesinden korumak için kuruluşlar en son şifreleme, erişim kontrolü ve yedekleme teknolojilerine yatırım yapmalıdır. Ağlar güvenlik duvarları, saldırı tespit sistemleri ve sofistike parolalarla güvence altına alınmalıdır.

4) Yazılımı optimize edin

Kendinizi YZ riskinden korumak için en iyi yazılım bakım uygulamalarını takip edin. Bu, istismar ve kötü amaçlı yazılım saldırıları riskini azaltmak için yapay zekâ yazılımınızı ve çerçevelerinizi, işletim sistemlerinizi ve uygulamalarınızı en son yamalar ve güncellemelerle güncellemeyi içerir. Gelişmiş kötü niyetli tehditleri durdurmak için sistemlerinizi yeni nesil antivirüs teknolojisi ile koruyun. Ayrıca, savunmanızı güçlendirmek için ağ ve uygulama güvenliği önlemlerine yatırım yapın.

5) Tatbikat

Tatbikatlar, yapay zekanın saldırılara yanıt vermesine yardımcı olan yapay zekaya özgü bir güvenlik önlemidir. Makine öğrenimi yöntemi, YZ modellerini farklı senaryolara, verilere ve tekniklere maruz bırakarak dayanıklılığını artırır.

6) Personel eğitimi

YZ’nin riskleri oldukça geniştir. Çalışanlarınızı YZ risk yönetimi konusunda eğitmek için siber güvenlik ve YZ uzmanlarına danışın. Örneğin, yapay zekâ tarafından tasarlanmış kimlik avı saldırıları olabilecek e-postaları kontrol etmeyi öğrenmelidirler. Aynı şekilde, yapay zekâ tarafından oluşturulmuş kötü amaçlı yazılım olabilecek istenmeyen yazılımları açmaktan kaçınmalıdırlar.

7) Güvenlik açığı yönetimi

Kuruluşlar, veri ihlalleri ve sızıntıları riskini azaltmak için yapay zekâ güvenlik açığı yönetimine yatırım yapabilirler. Güvenlik açığı yönetimi, güvenlik açıklarını tanımlamayı, analiz etmeyi ve önceliklendirmeyi ve YZ sistemlerinin benzersiz özellikleriyle ilgili saldırı yüzeyinizi azaltmayı içeren uçtan uca bir süreçtir.

8) YZ olay müdahalesi

En iyi güvenlik önlemlerine sahip olmanıza rağmen, yapay zekânın riskleri arttıkça kuruluşunuz yapay zekâ ile ilgili bir siber güvenlik saldırısına maruz kalabilir. Böyle bir olaydan kurtulmak için kontrol altına alma, soruşturma ve iyileştirmeyi kapsayan, ana hatları açıkça belirlenmiş bir olay müdahale planınız olmalıdır.

Yapay zekâ siber güvenliğe nasıl fayda sağlayabilir?

Farklı büyüklükteki endüstriler ve sektörler siber güvenliği artırmak için yapay zekâyı kullanmaktadır. Örneğin, dünya çapında her tür kuruluş, bankalardan hükümetlere kadar kimliklerin doğrulanması için yapay zekâyı kullanıyor. Finans ve emlak sektörleri de anormallikleri bulmak ve dolandırıcılık riskini azaltmak için yapay zekâdan yararlanmaktadır.

Yapay zekânın siber güvenliğe sağladığı faydalar şöyledir:

1) Siber tehdit tespiti

Sofistike kötü amaçlı yazılımlar, kod ve yapı değişikliği de dahil olmak üzere farklı kaçınma teknikleri kullanarak standart siber güvenlik teknolojisini atlatabilir. Ancak gelişmiş antivirüs yazılımları, potansiyel bir tehdidin genel yapısındaki, programlama mantığındaki ve verilerindeki anormallikleri bulmak için yapay zekâ ve makine öğrenimini kullanabilir.

Yapay zekâ destekli tehdit tespit araçları, ortaya çıkan bu tehditleri avlayarak ve uyarı ve müdahale yeteneklerini geliştirerek kuruluşları koruyabilir. Dahası, yapay zekâ destekli uç nokta güvenlik yazılımı bir kuruluştaki dizüstü bilgisayarları, akıllı telefonları ve sunucuları koruyabilir.

2) Tahmine dayalı modeller

Siber güvenlik uzmanları, üretken yapay zekâyı kullanarak reaktif bir duruştan proaktif bir duruşa geçebilirler. Örneğin, yeni tehditleri belirleyen ve riskleri azaltan öngörücü modeller oluşturmak için üretken yapay zekâyı kullanabilirler. Öngörücü modeller şöyle özetlenebilir:

• Daha hızlı tehdit tespiti
• Zaman tasarrufu
• Maliyet azaltma
• İyileştirilmiş olay müdahalesi
• Risklerden daha iyi korunma

3) Kimlik avı tespiti

Oltalama e-postaları önemli bir tehdit vektörüdür. Tehdit aktörleri, çok az riskle, hassas bilgileri ve parayı çalmak için kimlik avı seferlerini kullanabilir. Dahası, oltalama e-postalarını gerçek e-postalardan ayırt etmek giderek zorlaşmaktadır. Yapay zekâ, kimlik avı korumasını geliştirerek siber güvenliğe fayda sağlayabilir. Yapay zekâ kullanan e-posta filtreleri, şüpheli kalıplara sahip e-postaları işaretlemek ve farklı spam türlerini engellemek için metni analiz edebilir.

4) Botları tanımlama

Botlar ağlara ve web sitelerine zarar verebilir veya bunları çökertebilir, bir kuruluşun güvenliğini, üretkenliğini ve gelirini olumsuz yönde etkileyebilir. Botlar ayrıca çalıntı kimlik bilgileriyle hesapları ele geçirebilir ve siber suçluların dolandırıcılık ve sahtekarlık yapmasına yardımcı olabilir.

Makine öğrenimi tabanlı modellerden yararlanan yazılımlar ağ trafiğini ve verileri analiz ederek bot modellerini belirleyebilir ve siber güvenlik uzmanlarının bunları etkisiz hale getirmesine yardımcı olabilir. Ağ uzmanları, botlara karşı daha güvenli CAPTCHA geliştirmek için yapay zekâyı da kullanabilir.

5) Ağların güvenliğini sağlamak

Saldırganlar bir ağı ihlal ettikten sonra verileri dışarı sızdırabilir veya sistemlere fidye yazılımı bulaştırabilir. Bu tür tehditleri erken tespit etmek kritik önem taşır. Yapay zeka tabanlı anomali tespiti, ihlalleri önlemek için yetkisiz erişim, olağandışı kod ve diğer şüpheli kalıplar için ağ trafiğini ve sistem günlüklerini tarayabilir. Ayrıca yapay zekâ, gereksinimleri ve özellikleri analiz ederek ağları segmentlere ayırmaya yardımcı olabilir.

6) Olay müdahalesi

Yapay zekâ, tehdit avcılığını, tehdit yönetimini ve olay müdahalesini artırabilir. Ekibiniz çevrimdışı olduğunda bile tehditlere yanıt vermek ve acil durum eylemi gerçekleştirmek için günün her saati çalışabilir. Buna ek olarak, bir saldırıdan kaynaklanan zararı en aza indirmek için olay müdahale sürelerini kısaltabilir.

7) İçeriden gelen tehditleri azaltma

İçeriden gelen tehditler ciddiye alınmalıdır. Çünkü bir kurumun gelirine, ticari sırlarına, hassas verilerine ve daha fazlasına mal olabilirler. İki tür içeriden tehdit vardır: kötü niyetli ve kasıtsız. Yapay zekâ, riskli kullanıcı davranışlarını belirleyerek ve hassas bilgilerin bir kuruluşun ağlarından çıkmasını engelleyerek her iki tür içeriden gelen tehdidi de durdurmaya yardımcı olabilir.

8) Erişim kontrolünü güçlendirme

Birçok erişim kontrol aracı güvenliği artırmak için yapay zekâyı kullanır. Şüpheli IP adreslerinden girişleri engelleyebilir, şüpheli olayları işaretleyebilir ve zayıf parolaları olan kullanıcılardan oturum açma kimlik bilgilerini değiştirmelerini ve çok faktörlü kimlik doğrulamaya geçmelerini isteyebilirler.

Yapay zekâ ayrıca kullanıcıların kimliklerini doğrulamaya da yardımcı olur. Örneğin, yetkili kullanıcıların kimliğini doğru bir şekilde doğrulamak ve kötüye kullanım riskini azaltmak için biyometri, bağlamsal bilgiler ve kullanıcı davranış verilerinden yararlanabilir.

9) Yanlış pozitifleri belirleme

İstatistikte biz bu durumu tip 1 hata olarak ifade ederiz. Tip 1 hata, popülasyonda gerçekten doğru olan bir olgunun reddedilmesi veya yanlış olarak kabul edilmesi durumunda ortaya çıkmaktadır. Hastaneye gittiniz, test sonucu sizde COVID-19 olduğunu göstermektedir. Ancak aslında gerçekten COVID-19 değilsinizdir. Bu durumda biz tip 1 hata (yanlış pozitif)’dan bahsederiz. Yanlış pozitifleri yönetmek BT ekipleri için yorucu olabilir. Yanlış pozitiflerin çokluğu zihinsel sağlık sorunlarına yol açabilir. Ayrıca ekipleri meşru tehditleri gözden kaçırmaya da zorlayabilirler. Bununla birlikte, tehdit algılama doğruluğunu artırmak için yapay zekâ kullanan siber güvenlik araçlarıyla yanlış pozitiflerin hacmi azaltılabilir. Bu tür araçlar, bir güvenlik ekibinin zamanını ve kaynaklarını tüketen düşük olasılıklı tehditleri otomatik olarak yönetmek üzere de programlanabilir.

10) BT personel verimliliği ve maliyetleri

Birçok küçük ve orta ölçekli işletme, giderek karmaşıklaşan tehditleri günün her saati yönetmek için büyük bir şirket içi siber güvenlik ekibine yatırım yapmayı göze alamaz. Ancak, sürekli izleme yapmak, verimliliği artırmak ve maliyetleri düşürmek için 7/24 çalışan yapay zekâ destekli siber güvenlik teknolojisine yatırım yapabilirler. Bu tür bir teknoloji aynı zamanda bir şirketin büyümesiyle birlikte uygun maliyetli bir şekilde ölçeklenebilir.

Ek olarak, yapay zekâ yorulmadığı için personel verimliliğini artırır. Günün her saatinde aynı kalitede hizmet sunarak insan hatası riskini azaltır. Yapay zekâ ayrıca bir insan güvenlik ekibinden çok daha fazla veriyi yönetebilir.

Özetle bu yazımızda ilk olarak yapay zekânın kavramsal çerçevesi verilmiş, ardından yapay zekânın siber güvenlik alanında oluşturabileceği potansiyel riskleri ve sağlayacağı potansiyel faydaları ele alınarak konu alanında farkındalık oluşturulması amaçlanmıştır.

Faydalı olması ve farkındalık oluşturması dileğiyle.

Bilimle ve teknolojiyle kalınız.

Tevfik Bulut

https://tevfikbulut.net/

• AI in Cyber Security: Risks of AI. https://www.malwarebytes.com/cybersecurity/basics/risks-of-ai-in-cyber-security