Stanford Üniversitesi’nden bir grup araştırmacı, bireylerin karakterlerini dijital olarak kopyalayan bir yeni bir yöntem geliştirdi ve kişilerin karakterlerini % 85 doğrulukla kopyalamayı başardı.
Karakterinizin Dijital Kopyası Özgür İradenize Tehdit Oluşturacak mı?
Yapay zekâ çağında, bireylerin davranışlarını anlamak ve öngörmek için geliştirilen teknolojiler, sadece bilimsel bir merakı değil, aynı zamanda etik ve toplumsal bir sorgulamayı da beraberinde getiriyor. Daha önce ‘Modern Çağın Tanrıları: Devletlerin İlahi Ellerinde Yapay Zekânın Rolü’ başlıklı makalemde, devletlerin yapay zekâyı kontrol aracı olarak nasıl kullandığını ve bu teknolojilerin demokratik değerlere olan tehditlerini tartışmıştım. Şimdi bu tartışmayı dijital karakter kopyalama teknolojisi bağlamında ele alıyorum. Bu makale, karakter kopyalama teknolojisinin bireysel özgürlüklere ve demokratik değerlere nasıl tehdit oluşturabileceğini ele alıyor. Stanford Üniversitesi’nin son çalışmasından yola çıkarak, dijital karakterlerin toplumların geleceğinde nasıl bir rol oynayabileceğine dair derinlemesine bir inceleme sunuyor.
Stanford Araştırması: Araştırmacıların Gerçek İnsanların Dijital Kopyalarını Çıkardı
Stanford Üniversitesi’nden bir grup araştırmacı, bireylerin karakterlerini dijital olarak kopyalayan bir yapay zekâ teknolojisi geliştirdi. Araştırma, “Generative Agent Simulations of 1,000 People” başlıklı makalede detaylandırılmış ve Joon Sung Park, Carolyn Q. Zou, Aaron Shaw, Benjamin Mako Hill, Carrie Cai, Meredith Ringel Morris, Robb Willer, Percy Liang ve Michael S. Bernstein tarafından yazılmıştır. Makaleye buradan ulaşabilirsiniz. Bu yenilik, bireylerin davranış ve tutumlarını anlamak ve tahmin etmek konusunda büyük bir adım gibi görünürken, beraberinde ciddi etik ve siyasal riskleri de getiriyor. Peki, bu teknoloji bireylerin yaşamlarında ve demokratik yapılarda nasıl bir etki yaratabilir?
Teknolojinin Temeli: Dijital Kopyalar
Araştırma ekibi, 1.000’den fazla bireyle derinlemesine görüşerek her bir bireyin “dijital kopyasını” oluşturdu. Bu dijital bireyler, gerçek kişilerin tepkilerini ve tercihlerini birebir yansıtabilecek şekilde tasarlandı. Kamu politikalarının etkilerini test etmek, yeni ürünlerin pazar tepkisini öngörmek gibi uygulama alanları öne çıkıyor.
Bu teknoloji, bireylerin davranışlarını anlamada dış gözlem ve tahmin ötesine geçerek, bireylerin içsel düşünce ve değerlerini de modellemeyi amaçlıyor. Ancak, bu modelleme bireylerin mahremiyetine ve etik değerlerine ciddi bir tehdit oluşturabilir. Kışiselleştirilmiş dijital karakterlerin, bireylerin rızası olmaksızın kullanılması etik açıdan önemli soruları gündeme getiriyor. Ancak bu potansiyelin kötüye kullanılması durumunda ortaya çıkabilecek sorunlar, bireylerin özgür iradesini ve demokratik yapıları tehlikeye atabilir.
Demokrasi ve Manipülasyon Riski
Yapay zekâ, modern devletlerin elinde ilahi bir güç aracı olarak ortaya çıkmaktadır. Dijital karakter kopyalama teknolojisi, bireylerin en mahrem düşüncelerine erişim sağlayarak, sadece bireysel mahremiyet için değil, demokratik sistemler için de büyük bir tehdit oluşturur. Bu teknoloji, devletlerin gözetim ve kontrol kapasitesini artırarak vatandaşların yaşamlarını yönlendirme gücünü eşi benzeri görülmemiş bir seviyeye taşır. Eski tanrıların yıldırımlarını yönlendirdiği gibi, modern devletler de yapay zekâyı bir araç olarak kullanarak toplumları şekillendirmeye ve bireylerin seçimlerini manipüle etmeye yönelmiştir. Bu bağlamda, devletlerin tanrı rolünü üstlenme eğilimi, özgür irade kavramını tehdit eden en önemli unsurlardan biri olarak karşımıza çıkmaktadır.
Proje Nimbus gibi erken örnekler, modern devletlerin yapay zekâ teknolojilerini nasıl kullandığını ve nasıl kullanabileceği hakkında bize bir fikir veriyor. Bu proje kapsamında, İsrail’in tehdit olarak algıladığı bireyleri belirlemek ve kontrol altına almak için yapay zekâ destekli teknolojilerden yararlandığı biliniyor. Bu teknolojiler, daha önce yalnızca insan yargısına dayalı olan süreçleri yapay zeka süreçlerine devrederek kontrolü ve öldürme kararlarını otomatikleştiriyor.
Bu teknolojinin en büyük tehlikesi, yapay zekanın otoriter devletlerin ve kötü niyetli aktörlerin elinde bir manipülasyon aracına dönüşme olasılığıdır. Şu anda bile çerezler ve dijital izleme teknolojileriyle bireylerin davranışları izlenip analiz edildiği bir ortamda karakterlerimizin dijital kopyalarının çıkarılmasının yaratabileceği riskleri bir düşünelim.
Bireylerin Oy Tercihlerini Yönlendirme: Yapay zekâ, bireylerin politik tercihlerini tahmin ederek özel mesajlarla onlara ulaşabilir. Bu tür manipülasyon riskleri, Cambridge Analytica skandalı gibi örneklerde de görülmüştür. Benzer bir şekilde, 2023 seçimlerinde kamu otoritesini elinde bulunduranlar, mevcut iktidarın devamı için sosyal medya kampanyalarını son derece etkin kullanmış, seçmen davranışlarını hedefli mesajlarla yönlendirme stratejileri uygulamıştır. Sosyal medyada hedefli reklam kampanyalarıyla seçmen davranışlarını etkileme çabaları, demokratik mekanizmaların şeffaflığını ve tarafsızlığını ciddi anlamda zedelemiştir. Hassas konularda hedefli propaganda yürütmek, bireyleri belirli bir adayı ya da politikayı desteklemeye zorlamak için kullanılabilir. Bu, demokratik mekanizmaları ciddi anlamda zedeleyebilir.
Davranış Yönlendirme ve Sosyal Kontrol: Ekonomik tercihlerden toplumsal tepkilere kadar pek çok alanda bireylerin davranışlarını yönlendirmek mümkün hale geliyor. Örneğin, bir bireyin tüketim alışkanlıklarına göre kişiselleştirilmiş reklâmlar sunmak veya bir kitleyi sosyal medya aracılığıyla belli bir yöne sevk etmek artık daha kolay olacak.
Etik Sorunlar ve Mahremiyet
DW belgeselinden elde edilen bilgiler, insan düşüncelerinin ve beyin dalgalarının okunabilirliğinin tıbbi alanda önemli faydalar sağlayabileceğini, ancak etik sorunların da kaçınılmaz olduğunu gösteriyor. Belgeseldeki deneyler, düşünce gücünün sağlık, nöroplastisite ve insan davranışları üzerindeki etkilerini araştırırken, aynı zamanda bu teknolojilerin kötüye kullanım risklerine dikkat çekiyor. Belgeselin özeti için daha önce yazdığım şu paylaşıma göz atabilirsiniz. Örneğin, bir nöroteknoloji aracılığıyla bireylerin beyin dalgalarının analiz edilmesi, onların düşüncelerinin manipüle edilmesine veya ticari amaçlarla kullanılmasına yol açabilir. Bu nedenle, beyin dalgalarının ve düşüncelerin “özel nitelikli veri” kategorisinde değerlendirilmesi gerektiği açıktır.
Geoffrey Hinton’un yapay zekâ ile ilgili uyarıları da bu tartışmaya önemli bir boyut ekliyor. Hinton’un açıklamalarını daha önce haberleştirmiştim. Söylediklerinin özetine şu paylaşımımdan ulaşabilirsiniz. Hinton, yapay zekânın sadece bireylerin özgür iradesini tehdit etmediğini, aynı zamanda demokratik yapılar ve sosyal adalet üzerinde yıkıcı etkiler yaratabileceğini ifade etmiştir. Ayrıca, teknolojinin askeri alanda veya politik manipülasyon amaçlı kullanımı, düşünce özgürlüğünün ve bireysel mahremiyetin korunması için daha güçlü yasal düzenlemeler gerektirmektedir. DW belgeselinde de vurgulandığı gibi, düşüncelerin etik sınırlar içinde kullanımı için toplumların bu konuyu daha geniş bir çerçevede tartışması gerekiyor.
Beyin dalgalarının laboratuvar ortamında okunarak bireylerin aklından geçenlerin anlaşılabildiği bir dönemdeyiz. Bu, dijital karakter kopyalarının da özel nitelikli veri sayılması gerektiğini ve üretilmesi ile kullanılmasının çok sıkı kurallara bağlanması zorunluluğunu ortaya koyuyor. Geoffrey Hinton’un bu konuda yaptığı uyarılar, yapay zekânın kontrolsüz bırakılması durumunda bireysel özgürlüklerin ve mahremiyetin nasıl tehdit altında olabileceğini açıkça ortaya koyuyor. Hinton, yapay zekânın insan zekâsını aşarak kontrolü ele geçirme potansiyelinin yanı sıra, manipülasyon ve sosyal mühendislik gibi alanlarda da kullanılabileceği konusunda ciddi endişeler dile getirmiştir.
Bireylerin düşünce yapıları ve tercihlerini dijital olarak kopyalamak, mahremiyet hakları konusunda ciddi endişeler yaratıyor. Örneğin, bireylerin günlük internet alışkanlıklarından elde edilen verilerin, rızaları olmaksızın reklamlarda kullanılması veya sosyal medya platformlarının algoritmaları aracılığıyla belirli politik mesajlara maruz bırakılması gibi örnekler, bu teknolojinin mahremiyeti nasıl tehdit edebileceğini gösteriyor. Ayrıca, biyometrik verilerin izinsiz toplanarak kitle davranışını öngörmek için kullanılması gibi uygulamalar da etik sorunları derinleştiriyor.
Çözümler: Etik Bir Çerçeve Gerekli
Avrupa Birliği’nin yapay zekâ yasası, bu teknolojiyle ilgili risklerin farkında olan ve buna karşı somut adımlar atan öngörülü bir yaklaşım sergiliyor. Yapay zekânın bireylerin davranışlarını manipüle etme ve kitleleri kontrol etme riskini “kabul edilemez” kategorisinde değerlendirerek bu tür kullanımları yasaklamıştır. AB vatandaşları, bu yasa sayesinde belirli bir koruma altına alınmış durumdayken, diğer ülkelerde ve özellikle bizim gibi yasal düzenlemelerin eksik olduğu yerlerde, bu teknolojinin kitle kontrolü ve manipülasyon amacıyla kullanılması riski büyüyerek devam edebilir.
Beyin dalgalarının özel nitelikli kişisel veri olarak yasalarla koruma altına alınması gerektiğini daha önce vurgulamıştık. Aynı şekilde, bireylerin dijital karakter kopyalarının da özel nitelikli kişisel veri kategorisinde değerlendirilmesi ve bu verilerin üretilmesi ile kullanılmasının sıkı yasal düzenlemelere bağlanması gerektiğini öneriyoruz.
Avrupa Birliği’nin yapay zekâ yasası, bu teknolojiyle ilgili risklerin farkında olan ve buna karşı somut adımlar atan öngörülü bir yaklaşım sergiliyor. Yapay zekânın bireylerin davranışlarını manipüle etme ve kitleleri kontrol etme riskini “kabul edilemez” kategorisinde değerlendirerek bu tür kullanımları yasaklamıştır. AB vatandaşları, bu yasa sayesinde belirli bir koruma altına alınmış durumdayken, diğer ülkelerde ve özellikle bizim gibi yasal düzenlemelerin eksik olduğu yerlerde, bu teknolojinin kitle kontrolü ve manipülasyon amacıyla kullanılması riski büyüyerek devam edebilir.
Bu teknolojiye dair potansiyel faydaların hayata geçmesi için, etik ve demokratik prensiplere uygun bir kullanım çerçevesi oluşturulması kritik önem taşıyor. Bunu yapabilmek için şu üç şeye ihtiyacımız olacak:
- Şeffaflık: Teknolojinin hangi verileri topladığı ve bunları nasıl kullandığı kamuyla paylaşılmalı.
- Denetim Mekanizmaları: Uluslararası bağımsız kurumlar tarafından denetim yapılmalı.
- Yasal Düzenlemeler: Bireylerin mahremiyetini koruyan ve manipülasyonu engelleyen kanunlar çıkarılmalı.
Gelecek: Teknoloji ve Demokrasi Dengesi
AB vatandaşları, yeni çıkan Yapay Zeka yasası sayesinde belirli bir koruma altına alınmış durumdayken, diğer ülkelerde ve özellikle bizim gibi yasal düzenlemelerin eksik olduğu yerlerde, bu teknolojinin kitle kontrolü ve manipülasyon amacıyla kullanılması riski büyüyerek devam edebilir.
Bu durum, sadece demokrasinin değil, dinlerin de temeli olan özgür irade ve seçim hakkının geleceği için de kritik bir tehdit oluşturuyor. İkinci milattan sonra, otomasyon dönemi olarak adlandırdığımız insanlık tarihinin bu önemli dönüm noktasında, bireylerin tercihlerinin önceden kestirilebilir olmasının yaratabileceği sosyal risklerle yüzleşiş durumundayız. Yapay Zekanın insanlık tarihinde neden ikinci milat olduğunu anlattığım İnsan Zihninin Epistenomik Sınırı ve Yapay Zeka ile Başlayan İkinci Milat başlıklı yazıma da bir göz atabilirsiniz.
Yapay zeka teknolojinin nasıl ve hangi amaçla kullanılacağı hayati bir önem taşıyor, zira bu teknolojiyi kullanarak özgür iradeyi yok edip hem demokrasiyi hem de bireysel hakları tehdit etmek mümkün. Sorun, bu tür teknolojilerin yasalarla sınırlandırılmaması durumunda kitle kontrolü konusunda belirli bir açlık duyan kamu otoritelerinin elinde özgürlüklerimizi kaybetme riskine ne kadar yakın olduğumuzdur.
Yapa zeka teknolojisi iyi amaçlar için kullanılırsa, insan davranışlarını anlamada ve toplumsal sorunlara çözümler bulmada büyük bir potansiyel taşıyor. Örneğin, sağlık hizmetlerinde daha etkin tedavi stratejileri geliştirmek, eğitimde bireye özel öğrenme planları sunmak veya toplumsal krizlere hızlı yanıt verebilecek politikalar oluşturmak için bu tür dijital karakter modellemeleri kullanılabilir. Ancak modern çağın tanrıları olan devletlerin, bir türlü doyurulamayan kontrol hırsı sebebiyle bireylerin özgürlüklerini tehdit eden ve demokratik sistemleri zedeleyen bir aracı haline gelme riski var.
Soru şu: Devletlerin ve şirketlerin ne yapacağımızı önceden bildiği ve bizim yerimize kararlar verdiği yakın geleceğin siyasal toplumunda bireyler olarak tercih hakkımızı, inanç ve ifade hürriyetimizi ve bireysel özgürlüklerimizi nasıl koruyacağız?
Sonuç, bugün atacağımız adımlara bağlı.