YAPAY ZEKA TARTIŞMALARININ ODAĞINDA: CHATGPT VE KİŞİSEL VERİLER

       I.          Giriş

 

“ChatGPT, OpenAl tarafından geliştirilmiş büyük ölçekli bir dil modelidir. GPT-4 mimarisine dayanan bu yapay zeka, doğal dil işleme (NLP) ve anlayışında önemli bir gelişmedir. ChatGPT, kullanıcılardan gelen soruları ve istekleri anlayarak doğal dilde geri dönüş sağlar. Bu Al, çok çeşitli konular ve görevler üzerinde çalışabilir, ancak bilgi kesim tarihi Eylül 2021'de olduğu için daha yeni bilgilerle güncellenmemiştir. ChatGPT, genellikle metin tabanlı sohbetlerde kullanılır ve bilgi sağlamak, önerilerde bulunmak veya yaratıcı metinler yazmak gibi amaçlar için kullanılabilir.

 

ChatGPT, bir yapay zeka dil modeli olarak gelecekte kullanım şekli ve eylemlerinin toplum üzerindeki potansiyel etkisiyle ilgili riskler taşır. İşte olası risklerden bazıları:

 

1.     Yanlış bilgi: ChatGPT, geniş bir bilgiye erişime sahiptir ve bu bilgiye dayanarak yanıtlar üretebilir. Ancak, modeli eğitmek için kullanılan bilginin önyargılı veya yanlış olma riski vardır, bu da yanlış bilgi yayılmasına neden olabilir.

2.     Kötüye kullanım: ChatGPT, sahte haberler üretmek, kişileri taklit etmek veya sosyal mühendislik saldırılarını otomatikleştirmek için kullanılabilir. Yapay zeka teknolojisi ilerledikçe, kötü niyetli aktörlerin bunu kötü amaçlarla kullanma riski artar.

3.     Gizlilik: ChatGPT, kişisel veriler de dahil olmak üzere verilerden öğrenebilme yeteneğine sahiptir, bu da kişisel gizliliğe bir risk oluşturabilir. Örneğin, ChatGPT hedefli reklam geliştirmek için kullanılırsa, kişisel verilerin istismarına neden olabilir.

4.     Bağımlılık: ChatGPT, daha sofistike ve insan benzeri hale geldikçe, insanlar karar verme veya iletişim için aşırı derecede bağımlı hale gelebilirler. Bu, eleştirel düşünme becerilerinde ve kişilerarası becerilerde azalmaya neden olabilir.

5.     Sorumluluk eksikliği: ChatGPT, insanların hayatını etkileyen kararlar vermek için kullanılırsa, bu kararlar için sorumluluk eksikliği olabilir. Bu, adil veya önyargılı sonuçlara neden olabilir.

 

Genel olarak, ChatGPT ile ilişkili riskler, nasıl geliştirildiği ve kullanıldığına bağlıdır. Yapay zeka teknolojisinin etik ve sorumlu bir şekilde kullanılması için potansiyel risklerin dikkate alınması ve bunların önlenmesi önemlidir.”

 

Yukarıdaki metin, OpenAI adlı bir yazılım şirketinin geliştirmiş olduğu yapay zeka ürünü ChatGPT (Chat Generative Pre-Trained Transformer)’nin, ürünün kendisi ile ilgili tanımı ve gelecekte yaratabileceği riskleri anlatmakta olduğu iki ayrı cevabı içermektedir. Görüleceği üzere ürün, kullanılmasından doğabilecek riskleri tüm şeffaflığı ile ifade etmekte olup uygulamanın ne şekilde gerçekleşmesinin fayda yaratabileceği konusunda da bir fikir vermiş bulunmaktadır.

Ancak her ne kadar bir yapay zekanın kendi kullanımına ilişkin riskleri belirlemesi teoride kolay gözükse de, uygulayıcının insan olmasından dolayı söz konusu teorinin uygulanmasının zor ve öngörülemez olacağı hususunda bir şüphe bulunmamaktadır. Özellikle bireylerin kişisel verilerinin bir varlık olarak görüldüğü ekonomik düzende, sıklaşan yasal önlemlere, farkındalığı artan bireylere, korumacı kamu organlarına rağmen kişisel verilerin ihlali en önemli konu olarak siber güvenlik gündeminin tepesinde yer almaktadır. İşte bu makalemizin konusunu, dil tabanlı bir yapay zeka ürününün, uygulamada bugünkü şartlarda kişisel verilere ilişkin yaratması öngörülebilen risklerinin ve bu risklerin aza indirilmesinde kamuoyunun yaptığı tartışmaların değerlendirilmesi ve Türkiye’deki önlemlerin kapsamının belirtilmesi hususu teşkil etmektedir.

 

     II.          Kısaca Yapay Zeka ve Veri

Yapay zeka teknolojisi en genel tanımıyla, insan tarafından yerine getirildiğinde zeka görüntü algılama, konuşma tanıma, karar alma ya da diller arası çeviri yapma gibi görevlerin bilişim sistemleri tarafından yerine getirilmesini ifade eder[1]. Daha teknik bir yaklaşımla yapay zeka, çevresini algılayabilen ve herhangi bir hedef bakımından başarı şansını azami artırabilecek şekilde karar alabilen öğrenebilen ve tecrübelerinden analiz yapabilen makineleri ifade eder[2]. Yapay zeka teknolojileri bağımsız ve izole bir alanla sınırlı kalmaksızın güncel gelişmeler ve trendlerle etkileşim içindedir. Yapay zeka teknolojilerini destekleyen başlıca faktörlerin; bilişim alt yapısının mevcut ve erişilebilir olması, istatistik ve olasılık metotlarının geliştirilmesi ve giderek yapay zeka ile uyumlu alanların artması olduğu söylenebilir.  

Bu teknoloji en yaygın şekilde, telefonlarımıza yüklemiş olduğumuz çoğu uygulama (örneğin; navigasyon, yüz tanıma sistemleri, sağlık hizmetleri gibi) kapsamında kullanılması ve bu uygulamalarda yapay zeka tarafından, saklanan bilgiler doğrultusunda algoritmaların oluşturulması şeklinde karşımıza çıkmaktadır. Özellikle Covid-19 pandemisi ile daha da artan çevrimiçi kullanım ve elektronik otomasyon sistemlerine odaklanma ile şirketlerin kullandığı teknolojilere yapay zeka teknolojilerinin entegrasyonu hızlanmıştır.

Yapay zeka teknolojileri ile ayrılmaz kabul edilen bir kavram da Büyük Veri (Big Data)’dir. Bilişim ortamında her an çok sayıda kullanıcı ve cihaz tarafından büyük ölçekte veri işlenir. Yığın halinde bir araya gelen verilerin geleneksel işleme araçlarıyla yönetilemeyecek veri bütünü oluşturmasına Büyük Veri ismi verilir. Bu denli hızlı elde edilen ve ölçeği çok büyük olan veriler geleneksel işleme araçlarıyla kontrol edilemez durumda olduğundan bu verileri ancak yapay zeka teknolojisi ile geliştirilen işleme araçları yönetebilecektir[3]. Yapay zekanın kaynağını oluşturan veri tabanının yine yapay zeka dışında bir araçla kontrol edilemiyor oluşu adeta yapay zeka ve Büyük Veri arasındaki çift yönlü ve tartışmalı ilişkinin ispatı niteliğindedir.

Avrupa Konseyi 2017 yılı “Guidelines to Big Data” raporunda, yapay zekanın kullanım alanının kişisel verilere ve veri sahiplerinin haklarına yönelik riskleri sınırlamak amacıyla, geçerli veri koruma ilkeleri ve ilgili uygulamalar dikkate alınarak Büyük Veri bağlamında kişisel verilerin işlenmesine engel olmak olarak benimsenmiş olduğu görülmektedir. Aynı raporda, bu risklerin temel olarak veri analizinin taraflı yapılması, karar verme süreçlerinde Büyük Veri kullanımının yasal, sosyal ve etik sonuçlarının hafife alınması ve bireylerin bu süreçlere etkin ve bilinçli katılımının engellenmesi olabileceği ifade edilmektedir.

Bu doğrultuda, yapay zekanın yasal veri işleme ilkelerinin uygulanmasına aykırı hareket etme ve kişisel bilgilerin korunması için yeni uygulanabilir çözümler üretmeye imkan sağlayacaktır.

Görüleceği üzere, kamu denetim organlarının yaklaşımının, yapay zekanın ortaya koyduğu yeni zorluklar ve bunların toplum üzerindeki olası etkileri ışığında yeniden değerlendirilmesi gerekeceği açıktır.

   III.          Kişisel Verilerin İhlali ve Yapay Zeka

Yapay zeka teknolojileri ile elde edilen büyük veriden kasıt her türlü veri olduğundan kişisel veriler de kaçınılmaz şekilde bu teknolojiler tarafından kontrolsüzce işlenmekte ve muhafaza edilmektedir. Denetim altında bulunmayan yapay zeka algoritmalarının yaygın kullanımı, kişisel verilerin usulsüz şekilde depolanmasına, işlenmesine, paylaşılmasına, bu şekilde kişilik haklarının temelden zarar görmesine sebebiyet vermektedir. Gündelik hayatta sıklıkla karşılaştığımız bir arama motorunda veya sosyal medyada aradığımız kelimelerle ilişkili reklamların karşımıza çıkarılması, sosyal medya uygulamalarının tanıyor olabileceğimiz kişileri ve ilgi alanlarımızı öneri olarak sunması, harita uygulamalarının gideceğimiz güzergahlara kısa yol alternatifleri oluşturması yapay zeka eli ile işlenen kişisel verilerimizin en genel örnekleri şeklinde karşımıza çıkmaktadır.

Yapay zeka teknolojileri kaynağını oluşturan verilerin işlenmesi süreçlerinde kişilerin hak ve özgürlüklerini gözetmek, kişisel verilerin korunması hakkını korumak ve buna ilişkin düzenlemelere uymak zorundadır.

Bu aşamada hukukumuzda, yapay zeka uygulamaları sırasında kişisel verilerin 6698 sayılı Kişisel Verilerin Korunması Kanunu (“KVKK”)’na uygun şekilde işlenmesi ve saklanması büyük önem arz etmektedir.

Yapay zeka teknolojilerinin henüz hukuki kişiliği bulunmadığından kişisel verilerin KVKK na uygun şekilde işlenmesi bakımından yükümlülük ve sorumluluklar yapay zeka teknolojilerini geliştiren, satan ve kullanan gerçek ya da tüzel kişiler bakımından gündeme gelecektir.

5 Eylül 2021 tarihinde Kişisel Verileri Koruma Kurumu (“Kurum”) tarafından, yapay zeka uygulamaları sırasında uygulanmak üzere bu alanda faaliyet gösteren geliştiriciler, üreticiler, servis sağlayıcılar ve karar alıcılara yönelik “Yapay Zeka Alanında Kişisel Verilerin Korunmasına Dair Tavsiyeler” (“Tavsiyeler”) yayımlanmıştır[4].

 

Kurum tarafından verilen tavsiyeler kısaca şu şekildedir:

 

i.                 Genel Tavsiyeler: 

 

-        Yapay zeka teknolojisinin uygulanması sürecinde, ilgili kişilerin temel hak ve özgürlüklerine saygı gösterilmeli, bu hakların korunması gözetilmeli; özellikle de kişisel veri işleme temelli yapay zeka “(örneğin günümüzde kullanılan e-nabız veya hayat eve sığar uygulamaları bu kapsamdadır)” ve veri toplama çalışmaları sırasında, Kanun’da da açıkça belirtilen “hukuka uygunluk, dürüstlük, doğru ve gerektiğinde güncel olma, belirli, açık ve meşru amaçlar için işlenme, işlendikleri amaçla sınırlı, bağlantılı ve ölçülü olma, ilgili mevzuatta öngörülen veya işlendikleri amaç için gerekli olan süre kadar muhafaza edilme” gibi hususlara dikkat edilmesi gerekir.

-        Kişisel veri işleme temelli yapay zeka çalışmalarında, kişisel verilerin işlenmesi sürecinin riskli olduğu öngörülüyorsa, “mahremiyet etki değerlendirmesi” uygulanarak veri işleme faaliyetinin hukuka uygunluğuna bu çerçevede karar verilmelidir. Mahremiyet etki değerlendirmesi, bireylerin mahremiyeti üzerinde etki bırakması mümkün veya olası olan süreç, teknoloji, eylem, sistem gibi uygulamaların incelenmesi, bu uygulamalar sonucu doğan sorunların tespit edilmesi ve bunların giderilmesi yahut önlenmesi şeklinde tanımlanmaktadır. Bu çalışmalarda mevzuata uyum sağlanmalı ve her projeye özgü veri koruma uyum programı oluşturulmalıdır.

-        Kişisel veri işleme esaslı yapay zeka uygulamalarında sağlık verisi gibi Kanun tarafından özel nitelikli kişisel veri olarak kabul edilen verilerin işlenmesi halinde daha sıkı tedbirler alınmalı ve mevzuatta öngörülen söz konusu verilere ait kurallar dikkate alınmalıdır.

-        Yapay zeka teknolojilerinin geliştirilmesi ve uygulanmasında kişisel veri işlenmemesi halinde de aynı sonuç elde edilebiliyorsa veriler anonimleştirilmelidir.

 

ii.               Geliştiriciler, Üreticiler ve Servis Sağlayıcılar İçin Tavsiyeler:

 

Söz konusu tavsiye metninde;

-        Geliştiriciler; yapay zeka sistemlerine ait her türlü ürün için içerik ve uygulama geliştiren,

-        Üreticiler; yapay zeka sistemlerini oluşturan yazılım, donanım gibi her türlü ürünü üreten,

-        Servis sağlayıcılar ise; yapay zeka tabanlı sistemler, veri toplama sistemleri, yazılımlar ve cihazlar kullanarak ürün ve/veya hizmet sunan gerçek veya tüzel kişiler

olarak tanımlanmıştır.

 

Buna göre;

-        Bu kişiler tarafından model geliştirilmesi ve tasarımında; kişisel veri mahremiyeti esas alınmalı, risk önleme ve azaltmaya ilişkin bir yaklaşım benimsenmeli, veri işlemenin her aşamasında ilgili kişiler hakkında doğması muhtemel ayrımcılık riski/diğer olumsuz etkiler önlenmeli ve kullanılan kişisel verilerin niteliği dikkate alınarak asgari veri kullanımı gerçekleştirilmelidir.

-        Yapay zeka teknolojilerinin geliştirilmesi aşamasında uygulanan işlemler hakkında ilgili kişilere itiraz hakkı tanınmalı ve ilgili kişilerin ulusal/uluslararası mevzuattan doğan hakları korunmalıdır. Bu kapsamda uygulamadan etkilenebilecek kişilerin de katılımının sağlandığı risk değerlendirmesi uygulamalarına başvurulmalıdır.

-        İlgili kişilerin, otomatik veri işlemeye maruz bırakılacakları ürün ve hizmet tasarlanmamalı, “örneğin ilgili kişilerin açık rızaları alınmaksızın veya veriler işlenmeden önce aydınlatma yapılmaksızın veri işlenmemeli,” kişilik haklarına daha az müdahale eden alternatifler tercih edilmelidir. Aynı zamanda ilgili kişilerin verilerinin hangi amaçla, ne şekilde ve hangi kapsamda işlendiğini gösteren, kısaca hesap verilebilirliği sağlayan algoritmalar benimsenmelidir.

-        Bu tasarımlar oluşturulurken gerektiğinde bahsedilen riskler göz önünde bulundurularak yapay zeka kullanıcısının veri işleme faaliyetini durdurma ve kullanıcılara ait verilerin silinmesi, yok edilmesi yahut anonimleştirilmesi imkanı olan bir tasarım meydana getirilmelidir. Bunun yanı sıra, KVKK’da öngörüldüğü üzere uygulamayı kullanan kişilere kişisel veri işleme nedenleri, yöntemi ve kişisel veri işlemenin olası sonuçları hakkında aydınlatma yapılmalı, onay mekanizması oluşturulmalıdır.

 

iii.              Karar Alıcılar İçin Tavsiyeler

 

-        Yapay zeka uygulamalarının tüm aşamalarında, “hesap verebilirlik” ilkesi gözetilerek hareket edilmelidir ve uygun önlemler alınmalıdır. Bu önlemlerle birlikte risk değerlendirme prosedürleri belirlenerek yapay zeka uygulamaları kişisel verileri işleme ilkelerine uygun şekilde oluşturulmalıdır.

-        İlgili kişilerin temel hak ve özgürlüklerini etkileyebilecek durumlar ortaya çıktığında yapay zeka alanında düzenleme ve/veya denetleme yapmaya yetkili denetim otoritelerine başvuru yolu benimsenmeli, söz konusu denetim otoriteleri arasında veri mahremiyeti, tüketicinin korunması, rekabetin geliştirilmesi ve ayrımcılıkla mücadele konularında işbirliği sağlamaya yönelik teşvik edici uygulamalar gerçekleştirilmelidir.

-        Bireyler yapay zeka uygulamaları hakkında bilgilendirilmeli ve onların bu süreçte aktif olarak rol almaları sağlanmalıdır. İlgili kişilerin bilgilendirilmesi için dijital okuryazarlık ve eğitim kaynaklarına yatırım yapılmalıdır.

 

   IV.          ChatGPT Hakkında

 

Dünya’daki yapay zeka tartışmaları sürerken yeni yapay zeka yazılım şirketleri faaliyetlere geçmekte, mevcut olanlar ise yeni ürünlerini piyasaya sürmeye devam etmektedir. Mevcut olan bu şirketlerden en bilineni, yatırımcıları arasında Microsoft’un da olduğu Open AI ise ChatGPT adlı ürününü 2018 yılında kullanıma sunmuş olup 30 Kasım 2022’de ChatGPT (GPT-4) – 2022 Chat GPT, GPT serisinin dördüncü nesli ve en son modelini piyasaya sürmüştür[5]. Makalemizin “Giriş” bölümünde ChatGPT’nin kendi tanımını yaptığı gibi ChatGPT farklı alanlardaki konuları sisteminde işleyerek kullanıcıların taleplerine göre yanıtlar vermekte olan bir yapay zekadır.

 

Türkçe dahil olmak üzere pek çok farklı dilde çalışan bu algoritma pekiştirmeli öğrenme teknikleriyle geliştirilmektedir. Herhangi bir mesajlaşma uygulamasındaki gibi metin kutusuna sormak istenilen soru yazılarak yanıt alınabilmektedir. ChatGPT, kendisine yöneltilen konuşmalardaki sözcükleri analiz ederek sistemdeki veri havuz içerisinden bir sonraki sözcüğü tahmin ederek bir insanla konuşuyormuşçasına doğal ve uzun yanıtlar üretebilmektedir. Sorulan soruları ve yanıtları sohbet geçmişine kaydederek geri bildirim imkanı sunmaktadır.

 

Yukarıda değinildiği üzere ChatGPT’ye yazılan veya iletilen her türlü metin, görsel vb. verinin hepsi Open AI tarafından ChatGPT’nin eğitilmesi, öğrenmesi ve gelişmesi amacıyla kullanılmaktadır. Bu amaç doğrultusunda ChatGPT’nin kullanılması, toplumsal yaşamda önemli gelişmelerin yaşanmasına, hatta adil ve şeffaf bir sosyal alanın yaratılmasına da sebep olabilecektir.  Öyle ki; Şubat 2023’te uluslararası haber sitelerine yansıyan haberlere göre Kolombiya’nın Cartagena kentinde otizm teşhisi konulmuş bir çocuğun tedavi masraflarının ebeveynleri tarafından karşılanmasına ilişkin görülen bir davada, hakim Juan Manuel Padilla tıbbi ve ulaşım masraflarının sigorta tarafından karşılanıp karşılanmaması hususunda ChatGPT’ye danışmış ve ChatGPT; “Evet, bu doğru. Kolombiya'daki düzenlemelere göre, otizm teşhisi konan reşit olmayan çocuklar tedavileri için ücret ödemekten muaftır.” şeklinde cevap verdiği belirtilmiştir[6].

 

Öte yandan ChatGPT’ye ilişkin tartışmaların odağında sadece uygulamanın topluma faydaları bulunmamaktadır. Şöyle ki; Samsung mühendisleri tarafından bir problemin çözülmesi amacıyla ChatGPT’ye sorulan sorularda gizli bilgilerin de var olmasından ötürü cevaplarda verilerin ifşa edilmesinin söz konusu olabileceği öngörülmüştü. The Center for AI and Digital Policy (“Yapay Zekâ ve Dijital Politika Merkezi”), ChatGPT’nin yeni sürümlerinin “önyargılı, aldatıcı ve kamu güvenliği için riskli” olması sebebiyle ABD’de piyasaya sunulmasının durdurulması için Federal Ticaret Komisyonu (“FTC”)’na başvuruda bulunmuştur[7].

 

Diğer taraftan geçtiğimiz günlerde İtalya'nın veri koruma kurumu olan Garante per la protezione dei dati personali (“GPDP”), yaptığı bir açıklamayla Microsoft Open AI tarafından bu yıl geliştirilen ve yapay zeka araçlarının bugüne kadar ki en özgün versiyonu olan ChatGPT-4 adlı chat-botunun kullanımına ilişkin çok önemli bir karara imza attı.  GPDP, bu kapsamda Open AI’yı; "kişisel verilerin yasa dışı toplanması" ve “Open AI’nın ChatGPT kullanıcılarının 13 yaş sınırında olup olmadığını kontrol etmemesi” yönünden suçlayarak Open AI'nın, veri toplama uygulamalarını değiştirene kadar ürünü yasaklayıp İtalya’da çevrim dışı bıraktı. GPDP, yapay zeka destekli sohbet robotlarına karşı benimsediği sıkı tavır ile tanınmakta olup Kurum, daha önce de “Replika.ai” adlı bir sohbet robotunu yasaklamıştı[8].

 

Öte yandan, Alman yetkililerinin, İtalya’daki bir uygulamanın Almanya için de söz konusu olabileceği hususunda açıklama yaptığı, Fransa ve İrlanda’nın yetkili kurumlarının ise GPDP ile karar hakkında temas halinde olduğu kamuoyuna yansımış bulunmaktadır.[9]

 

 

     V.          Sonuç

 

 

Tüm bu bilgiler kapsamında yapay zeka kullanımının hem kitlesel bilgi toplamada hem de bu bilgiyi daha sonra insanların kullanımına sunulabilecek bilgiye dönüştürmede son derece önemli bir gelişme olması yanında kişisel verilerin ihlali, kişilik haklarına müdahale gibi temel nitelikli olumsuz sonuçlarının da var olduğunu dikkate almak gerekmektedir.

 

Gelişmelerden de anlaşılacağı üzere, yapay zeka kullanımına ilişkin bu tip güncel kaygıların ve olumsuz etkilerin ortadan kaldırılması adına uluslararası düzeyde mevcut veri koruma düzenlemelerinde ciddi bir revizyon yapılması gerektiğine ilişkin tartışmaların günden güne artması beklenmektedir. Özellikle ChatGPT kullanımı ile somutlaşan bu risk algısının önüne geçilmesi yine bu chatbot ve benzerlerinin daha güvenli, işlevsel, nitelikli bir şekilde kullanılmasını sağlamak için gerekli tüm geliştirmelerin yapılması ve kullanımının da kısıtlamaktan ziyade yaygın hale getirilmesiyle mümkün olabileceği söylenebilecektir. Zira henüz, sorun da çözüm de insan zekasının bir ürünü olarak karşımıza çıkmaktadır.

 

Ulu Önder Mustafa Kemal Atatürk’ün 1939 yılında yapmış olduğu bir konuşmasında ifade ettiği üzere “İnsanların hayatına, faaliyetine egemen olan kuvvet yaratma ve icat yeteneğidir.” Dolayısıyla insanoğlu doğası gereği aklını kullanarak icat etmeye ve yaratmaya devam ettikçe söz konusu tartışmaların sonlanmasını beklemek en azından şimdilik mümkün gözükmemektedir. 


[1] Murat Volkan DÜLGER, Kişisel Verilerin Korunması Hukuku, Hukuk Akademisi, 3.Baskı, s.672

[2] Oxford English Dictionary

[3] The Ethics Of Artificial Intelligence: Issues and Initiatives, European Parliamentary Research Services 2020

[4] https://kvkk.gov.tr/SharedFolderServer/CMSFiles/25a1162f-0e61-4a43-98d0-3e7d057ac31a.pdf (Erişim tarihi, 11.04.2023)

[5] https://openai.com/blog/chatgpt (Erişim tarihi, 11.04.2023)

[6] https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling (Erişim tarihi, 11.04.2023)

[7] https://www.engadget.com/three-samsung-employees-reportedly-leaked-sensitive-data-to-chatgpt-190221114.html, “İtalya’nın Ardından Almanya da ChatGPT’yi Engelleyebilir”, (Erişim tarihi 3.04. 2023)

[8] https://www.cnbc.com/2023/04/04/italy-has-banned-chatgpt-heres-what-other-countries-are-doing.html,

(Erişim tarihi: 9.04.2023)

[9] https://www.voaturkce.com/a/italya-ardindan-almanya-chatgpt-engelleyebilir/7034164.html (Erişim tarihi: 9.04.2023)

Previous
Previous

FİNANS MERKEZİ Mİ, CAZİBE MERKEZİ Mİ?

Next
Next

SERİ MARKALAR VE KARIŞTIRILMA TEHLİKELERİ