Berber, Leyla KeserAtabey, Ayça2022-03-292022-03-2920211011-730Xhttps://hdl.handle.net/11411/4487https://search.trdizin.gov.tr/yayin/detay/462880ÖZET: Bu yazıda öncelikle hukuk sisteminin kuruculuğunu erken ve modern dönemlerde üstlenen düşünürlerden hukukçu kimliği ortaya koyulmakta ve ikinci olarak modern dönemde Yapay zeka sistemleri, bireysel yaşamlarımızı, sosyal hayatı ve ekonomiyi önemli ölçüde dönüştürmektedir. Bu sistemlerin kullanımı eğitim, sağlık ve mobilite gibi çok sayıda alanda insanlık için faydalar sağlamaktadır. Ancak aynı zamanda, yapay zeka sistemlerinin geliştirilmesi ve kullanılması özellikle Avrupa Konseyi’nin üç temel ilkesi olan insan hakları, hukukun üstünlüğü ve demokrasi açısından önemli riskler yaratmaktadır. Temel insan hak ve özgürlükleri açısından bu sistemlerin yaratabileceği risklerin odağında ise, toplumun hassas ve korunmaya muhtaç en değerli öznesi “çocuk” bulunmaktadır. Yapay zeka sistemleri, neredeyse doğdukları ilk günden itibaren dijital dünyanın bir parçası olan bu çocukların çevrim içi yaşantısını oynadıkları oyunlarda, aldıkları eğitimde, sosyalleştikleri ve eğlendikleri platformlarda kuşatmış durumdadır. Çocukları kendi güçleri ile baş edemeyecekleri yapay zeka sistemlerine karşı koruyabilmek için, söz konusu sistemlerin “çocuk haklarına saygılı” ve “çocuk merkezli” tasarımı, geliştirilmesi ve kullanımını sağlamak önem taşımaktadır. Algoritmanın tüm yaşam döngüsü boyunca bu ilkeler açısından yaratabileceği risklerin “Çocuk Hakları Etki Analizi” (ÇHEA) yöntemi ile değerlendirilmesi, etki analizi sonucu ortaya çıkan bulguların giderilmesi için gerekli önlemlerin alınması ve nihayet yapay zeka sistemlerin yine tüm yaşam döngüsü boyunca denetim yapılarak çocuk hakları açısından etkin bir koruma sağlanması gereklidir. ÇHEA uygulaması ayrıca veri koruması hukuku kapsamında değerlendirildiğinde Avrupa Birliği Genel Veri Koruma Tüzüğü (GDPR) kapsamındaki hakkaniyet ve hesap verilebilirlik ilkesi gibi bir çok kurala uyum açısından da son derece önemlidir.ABSTRACT: Artificial Intelligence (AI) systems are significantly transforming our individual lives, social life, and economy. Use of AI systems create advantages in numerous areas such as education, health and mobility for humanity at large. But at the same time, AI systems pose significant risks to human rights, rule of law and democracy, which are the three fundamental standards of the Council of Europe. In terms of human rights, the most valuable subject of society, weak and in need of protection, “child” is at the center of the risks that these systems may create. AI Systems surround the entire online life of these digital-born children in the games they play, the education they receive, and the platforms where they socialize and have fun. In order to protect children against AI systems that they cannot cope with with their own power, it is important to ensure that these systems are designed, developed and used “respectful to children's rights” and “child-centered”. Evaluating the risks that the algorithms may create in terms of these principles throughout its life cycle, using the “Child Rights Impact Assessment” (CRIA) method, taking the necessary measures to eliminate the findings of the impact analysis, and ensuring an effective protection in terms of children's rights by inspecting the AI systems throughout the entire life cycle, is necessary. Lastly, effective application of CRIA can bolster relevant rules and principles under the GDPR and play a vital role in showing compliance with the fairness principle and accountability duties.trinfo:eu-repo/semantics/openAccessÇocuk haklarıçocuk hakları etki analiziyapay zekaveri korumasıYapay zeka sistemlerinin çocuk haklarına etkilerinin değerlendirilme yöntemi: çocuk hakları etki analiziThe method of assessing the effects of artificial intelligence systems on children's rights: child rights impact assessmentArticle462880