Yapay Zeka, Çocuk Mahremiyeti ve Gizlilik

21. Yüzyıl itibariyle teknoloji giderek daha da ilginç ve merak edilebilir bir hal alıyor. Büyümesinin önlenemez ve tahmin edilemez olması işleri biraz ilginçleştiriyor. Ayrıca artık neredeyse herkesin internete ulaşabilecek durumda olması ise, teknolojinin olumlu yanlarının yanında olumsuzları da getirebiliyor. 

(Resim https://app.leonardo.ai aracılığı ile yaratılmıştır.) 

21. Yüzyıl itibariyle teknoloji giderek daha da ilginç ve merak edilebilir bir hal alıyor. Büyümesinin önlenemez ve tahmin edilemez olması işleri biraz ilginçleştiriyor. Ayrıca artık neredeyse herkesin internete ulaşabilecek durumda olması ise, teknolojinin olumlu yanlarının yanında olumsuzları da getirebiliyor. 

“Yapay zeka, yaşantılarımızı kolaylaştırma amacı taşıyan pek çok gelişmeyi beraberinde getirebilmektedir. Bu, özelleştirilmiş öğrenme için eğitimde kullanılabilecek bir dizi olumlu uygulama sunmasını, birçok alanda işe yaramasını ve engelli çocukları desteklemek için kullanılabilmesini içermektedir” (Byrne, 2021). Fakat her ne kadar eğlenceli içerikli uygulamalara sahip olsa da, bu uygulamalar aracılığıyla fotoğraflarımızı ya da diğer bilgilerimizi topluyor ve beraberinde veri toplama ve üçüncü kişilerle paylaşma risklerini getirebiliyor. Bunun yanı sıra, birçok yapay zeka uygulaması yaş doğrulaması ve ebeveyn kontrolü gibi güvenlik önlemlerini yetersiz bırakarak çocukların ve gençlerin mahremiyetini tehlikeye atabiliyor.  

Çocuklarının belirli bir yaşa kadar gizlilikleri ve verilerinin saklanması ebeveynlerin sorumluluklarından biri ve bu yüzden ebeveynler bu konuda bazı yönlere dikkat etmeli; sosyal medyada çocuklarının fotoğrafını paylaşırken bunu kimler görebiliyor ya da kimlerin erişimi var bilmeli ve kullandıkları uygulamaların çoğu veriyi sakladığını unutmamalılar. 

Diğer bir konu ise; yapay zeka teknolojilerinin beraberinde getirdiği riskler herkes için eşit mi sorusunu akıllara getirebiliyor.  Bu sorunun cevabı birçok araştırmada ortaya konulduğu üzere, hayır. “UNESCO’nun paylaşmış olduğu raporda, yapay zekanın toplumsal cinsiyet eşitliğinin önünde bir risk teşkil ettiği, kadın ve kız çocuklarının YZ algoritmaları tarafından ayrımcılığa maruz bırakılma ihtimallerinin daha yüksek olduğu örneklerle ortaya konulmuştur” (Çolak, 2020). Ayrıca yapılan bir araştırma, yapay zeka konusunda eğitilmiş robotların ırkçılık ve cinsiyetçilikle aşılanmış cevaplar verdiğini gösteriyor. Yapay zekanın yaygın kullanımına ilişkin şüphecilik, çocukların mahremiyeti ve güvenliği konusundaki tartışmalarda da mevcuttur. Çocukların bilgileri, özellikle hassas verileri, akıllı cihazlar aracılığıyla toplanıp işlenmektedir. Bu tür verilerin yanlış kişilerin eline geçmesi, çocukların güvenliğini tehlikeye atabilir. “Örneğin 2017’de, CloudPets oyuncak ayıları, iki milyondan fazla çocuğun özel bilgilerini açığa çıkaran bir veri ihlalinin ardından güvenlik endişeleri nedeniyle raflardan çekildi (Perucica, 2022).  

(Resim https://app.leonardo.ai aracılığı ile yaratılmıştır.) 

Yapay zekanın çocuk merkezli olmasını sağlamak için karar vericiler ve teknoloji yenilikçileri, bu sistemlerini tasarlarken ve geliştirirken çocukların koruma, tedarik ve katılım haklarını aynı anda koruyacak ve teşvik edecek şekilde geliştirmek ve yaymak amaçlarına öncelik vermeli. UNICEF ve OHCHR bu konuya özellikle dikkat çekmiştir.  

(Resim https://app.leonardo.ai aracılığı ile yaratılmıştır.) 

Aysima KAYACIK 

Çolak, B. (17 Eylül 2020). Çocuk dostu yapay zeka: Unicef Kılavuzu. Erişim tarihi: 20 Ekim 2023, https://codera.blog/2020/09/17/cocuk-dostu-yapay-zeka-unicef-kilavuzu/  

Linn, S. (21 Ekim 2022). How AI-powered tech can harm children. Erişim tarihi: 23 Ekim 2023, https://time.com/6216722/how-ai-tech-harms-children/ 

Perucica, N. (28 Ocak 2022). Çocuklarımız AI ile büyüyor. İşte bilmeniz gerekenler. Erişim tarihi: 20 Ekim 2023, https://www.weforum.org/agenda/2022/01/artificial-intelligence-children-technology/ 

(27 Kasım 2021). Digital child’s play: protecting children from the impacts of AI. Erişim tarihi: 20 Ekim 2023, https://news.un.org/en/story/2021/11/1106002 

Leave A Comment