Ana Sayfa Hukuk&Etik DSÖ, Sağlık Alanı için Yapay Zeka Etiği ve Yönetişim Kılavuzunu Yayınladı

DSÖ, Sağlık Alanı için Yapay Zeka Etiği ve Yönetişim Kılavuzunu Yayınladı

Dünya Sağlık Örgütü (DSÖ), sağlık hizmetleri alanında yararlanılan ve hızla büyüyen yapay zeka teknolojisi “LMMs” için yeni bir kılavuz yayımladı.

WHO releases AI ethics and governance guidance for large multi-modal models

Dünya Sağlık Örgütü (WHO) , sağlık hizmetlerinde uygulamaları olan, hızla büyüyen bir tür üretken yapay zeka (AI) teknolojisi olan büyük çok modlu modellerin (LMM’ler) etiği ve yönetimine ilişkin yeni kılavuz yayınlıyor .

Kılavuzda, toplumların sağlığını geliştirmek ve korumak için LMM’lerin uygun şekilde kullanılmasını sağlamak amacıyla hükümetler, teknoloji şirketleri ve sağlık hizmeti sağlayıcıları tarafından dikkate alınacak 40’tan fazla öneri özetleniyor.

LMM’ler metin, video ve görseller gibi bir veya daha fazla veri girişi türünü kabul edebilir ve girilen veri türüyle sınırlı olmayan çeşitli çıktılar üretebilir. LMM’ler, insan iletişimini taklit etmeleri ve açıkça programlanmadıkları görevleri yerine getirme yetenekleri açısından benzersizdir. LMM’ler tarihteki tüm tüketici uygulamalarından daha hızlı benimsendi ve ChatGPT, Bard ve Bert gibi çeşitli platformlar 2023’te kamuoyunun bilincine girdi.

DSÖ Baş Bilim Adamı Dr. Jeremy Farrar, “Üretken yapay zeka teknolojileri, sağlık hizmetlerini iyileştirme potansiyeline sahip ancak bu teknolojileri geliştiren, düzenleyen ve kullananların ilgili riskleri tanımlaması ve tamamen hesaba katması durumunda” dedi. “Daha iyi sağlık sonuçları elde etmek ve devam eden sağlık eşitsizliklerinin üstesinden gelmek amacıyla LMM’lerin tasarımını, geliştirilmesini ve kullanımını yönetmek için şeffaf bilgi ve politikalara ihtiyacımız var.”

Potansiyel faydalar ve riskler

Yeni DSÖ kılavuzu, LMM’lerin sağlık için beş geniş uygulamasını özetlemektedir:

  • Hastaların yazılı sorularına yanıt vermek gibi teşhis ve klinik bakım;
  • Semptomları ve tedaviyi araştırmak gibi hasta rehberliğinde kullanım;
  • Elektronik sağlık kayıtları içerisinde hasta ziyaretlerinin belgelenmesi ve özetlenmesi gibi büro ve idari görevler;
  • Kursiyerlere simüle edilmiş hasta karşılaşmalarının sağlanması da dahil olmak üzere tıp ve hemşirelik eğitimi ve;
  • Yeni bileşiklerin tanımlanması da dahil olmak üzere bilimsel araştırma ve ilaç geliştirme.

LMM’ler sağlıkla ilgili belirli amaçlar için kullanılmaya başlarken, aynı zamanda sağlıkla ilgili kararlar verirken bu tür bilgileri kullanan insanlara zarar verebilecek yanlış, yanlış, önyargılı veya eksik beyanlar üretmeye ilişkin belgelenmiş riskler de mevcuttur. Ayrıca, LMM’ler ırk, etnik köken, soy, cinsiyet, cinsel kimlik veya yaşa göre düşük kaliteli veya önyargılı veriler üzerine eğitilmiş olabilir.

Kılavuz ayrıca, en iyi performans gösteren LMM’lerin erişilebilirliği ve karşılanabilirliği gibi sağlık sistemlerine yönelik daha geniş riskleri de ayrıntılarıyla anlatıyor. LMMS aynı zamanda sağlık profesyonelleri ve hastalar tarafından ‘otomasyon yanlılığını’ teşvik edebilir; bu sayede normalde tespit edilebilecek olan hatalar gözden kaçırılır veya zor seçimler uygunsuz bir şekilde LMM’ye devredilir. Diğer yapay zeka türleri gibi LMM’ler de hasta bilgilerini veya bu algoritmaların güvenilirliğini ve daha geniş anlamda sağlık hizmeti sunumunu tehlikeye atabilecek siber güvenlik risklerine karşı savunmasızdır.

DSÖ, güvenli ve etkili LMM’ler oluşturmak için çeşitli paydaşların katılımının gerekliliğinin altını çizmektedir: hükümetler, teknoloji şirketleri, sağlık hizmeti sağlayıcıları, hastalar ve sivil toplum, gözetim ve düzenleme de dahil olmak üzere bu tür teknolojilerin geliştirilmesi ve uygulanmasının tüm aşamalarında.

DSÖ Bilim Bölümü Dijital Sağlık ve Yenilik Direktörü Dr. Alain Labrique, “Tüm ülkelerin hükümetleri, LMM’ler gibi yapay zeka teknolojilerinin geliştirilmesini ve kullanımını etkili bir şekilde düzenleme çabalarına işbirliği içinde liderlik etmelidir” dedi.

Temel öneriler

Yeni DSÖ kılavuzu, LMM’lerin geliştirilmesi ve konuşlandırılmasına ve bunların halk sağlığı ve tıbbi amaçlarla entegrasyonuna ve kullanımına yönelik standartları belirleme konusunda birincil sorumluluğa sahip olan hükümetler için tavsiyeler içermektedir. Örneğin hükümetler şunları yapmalıdır:

  • Kamu, özel ve kar amacı gütmeyen sektörlerdeki geliştiricilerin erişimine açık, kullanıcıların etik ilkelere ve değerlere bağlı kalmasını gerektiren, bilgi işlem gücü ve kamuya açık veri kümeleri de dahil olmak üzere, kar amacı gütmeyen veya kamu altyapısına yatırım yapın veya sağlayın. erişim.
  • Sağlık hizmetleri ve tıpta kullanılan LMM’lerin ve uygulamaların, yapay zeka teknolojisiyle ilişkili risk veya faydaya bakılmaksızın, örneğin bir kişinin onurunu, özerkliğini veya onurunu etkileyen etik yükümlülükleri ve insan hakları standartlarını karşılamasını sağlamak için yasaları, politikaları ve düzenlemeleri kullanın. mahremiyet.
  • Kaynakların izin verdiği ölçüde, sağlık hizmetleri veya tıpta kullanılması amaçlanan LMM’leri ve uygulamaları değerlendirmek ve onaylamak için mevcut veya yeni bir düzenleyici kurum atayın.
  • Bir LMM’nin büyük ölçekte konuşlandırılması durumunda, bağımsız üçüncü taraflarca, veri koruma ve insan hakları da dahil olmak üzere, zorunlu yayın sonrası denetim ve etki değerlendirmelerini uygulamaya koyun. Denetim ve etki değerlendirmeleri yayınlanmalı ve örneğin yaşa, ırka veya engelliliğe göre kullanıcı türüne göre ayrıştırılmış sonuçları ve etkileri içermelidir.

Rehber aynı zamanda LMM geliştiricileri için aşağıdaki temel tavsiyeleri de içermektedir:

  • LMM’ler yalnızca bilim insanları ve mühendisler tarafından tasarlanmamaktadır. Tıbbi sağlayıcılar, bilimsel araştırmacılar, sağlık uzmanları ve hastalar da dahil olmak üzere potansiyel kullanıcılar ve tüm doğrudan ve dolaylı paydaşlar, yapılandırılmış, kapsayıcı, şeffaf bir tasarımla yapay zeka gelişiminin ilk aşamalarından itibaren sürece dahil edilmeli ve etik sorunları, dile getirilen kaygıları ve endişeleri dile getirme fırsatları tanınmalıdır. Söz konusu yapay zeka uygulaması için girdi sağlayın.
  • LMM’ler, sağlık sistemlerinin kapasitesini geliştirmek ve hasta çıkarlarını geliştirmek için iyi tanımlanmış görevleri gerekli doğruluk ve güvenilirlikle gerçekleştirmek üzere tasarlanmıştır. Geliştiriciler ayrıca potansiyel ikincil sonuçları da tahmin edebilmeli ve anlayabilmelidir.

ileri okuma:

NATURE / Dünya Sağlık Örgütü, tıbbi yapay zekanın yoksul ülkeler için ‘tehlikeli’ olabileceği konusunda uyardı