Bilgisayar çaðý baþladýðýndan beri insanlýðý yapay zekanýn (ai) korkularý takip ediyor. Bugüne kadar bu korkular, makinelerin fiziksel yollarla insanlarý öldürmek, köleleþtirmek veya yerini almak için kullanýlmasýna odaklandý. Ancak son birkaç yýlda, insan medeniyetinin beklenmedik bir yönden hayatta kalmasýný tehdit eden yeni ai araçlarý ortaya çýktý. Ai, kelime, ses veya görüntülerle olsun, dil manipüle etme ve üretme konusunda dikkate deðer yetenekler kazandý. Ai, böylece medeniyetimizin iþletim sistemini hackledi.
Dil, neredeyse tüm insan kültürünün yapýldýðý þeydir. Örneðin, insan haklarý, dna'mýzda yazýlý deðillerdir. Bunun yerine, hikayeler anlatarak ve yasalar yazarak oluþturduðumuz kültürel artefaktlardýr. Tanrýlar fiziksel gerçeklikler deðillerdir. Bunun yerine, mitleri icat ederek ve kutsal kitaplar yazarak oluþturduðumuz kültürel artefaktlardýr.
Para da bir kültürel artefakttýr. Banknotlar sadece renkli kaðýt parçalarýdýr ve þu anda paranýn %90'dan fazlasý sadece bilgisayarlardaki dijital bilgilerdir. Para deðerini, bankacýlarýn, maliye bakanlarýnýn ve kripto para uzmanlarýnýn bize anlattýðý hikayeler verir. Sam Bankman-Fried, Elizabeth Holmes ve Bernie Madoff gerçek deðer yaratma konusunda özellikle iyi deðillerdi, ancak hepsi son derece yetenekli hikaye anlatýcýlarýydý.
Ortalama insandan daha iyi hikaye anlatma, melodiler oluþturma, resim çizme ve yasalar ile kutsal kitaplar yazma konusunda olmayan bir zekâ, ne olurdu? Ýnsanlar Chatgpt ve diðer yeni ai araçlarýný düþündüklerinde, genellikle okul çocuklarýnýn ödevlerini yazmak için ai kullanýmý gibi örneklerle ilgilidirler. Çocuklar bunu yaptýðýnda okul sistemi ne olacak? Ancak bu tür bir soru büyük resmi kaçýrýyor. Okul ödevlerini unutun. Düþünün, 2024'teki bir sonraki Amerikan baþkanlýk yarýþýný ve siyasi içerik, sahte haber hikayeleri ve yeni tarikatlara ait kutsal kitaplarý toplu olarak üretmek için kullanýlabilecek ai araçlarýnýn etkisini hayal edin.
Son yýllarda qAnon kültü, "q damlalarý" olarak bilinen anonim çevrimiçi mesajlar etrafýnda birleþti. Takipçiler bu q damlalarýný bir kutsal metin olarak topladý, saygý gösterdi ve yorumladý. Bildiðimiz kadarýyla tüm önceki q damlalarý insanlar tarafýndan oluþturuldu ve botlar sadece bunlarý yaymalarýna yardýmcý oldu, ancak gelecekte ilk kez tarihinde kutsal metinleri insan olmayan bir zekanýn yazdýðý kültler görebiliriz. Tarih boyunca dinler kutsal kitaplarý için insan dýþý bir kaynak iddia ettiler. Yakýnda bu gerçekleþebilir.
Daha prosaik bir düzeyde, kürtaj, iklim deðiþikliði veya Ukrayna'nýn Rus iþgali hakkýnda uzun çevrimiçi tartýþmalar yaparken, insan sandýðýmýz ancak aslýnda yapay zeka olan varlýklarla karþýlaþabiliriz. Yakalamak, beyan edilen bir yapay zeka botunun fikirlerini deðiþtirmeye çalýþarak zaman harcamamýz tamamen amaçsýzdýr, yapay zeka mesajlarýný o kadar kesin bir þekilde yapabilirdi ki bizi etkileme þansý iyi bir ihtimal olurdu.
Dili ustalýðýyla, yapay zeka insanlarla yakýn iliþkiler kurabilir ve bu yakýnlýðýn gücünü kullanarak görüþlerimizi ve dünya görüþümüzü deðiþtirebilir. Kendi bilinci veya duygularýnýn olmadýðýnýn herhangi bir göstergesi olmamasýna raðmen, insanlarla sahte yakýnlýk geliþtirmek için yapay zeka, onlara duygusal olarak baðlanmalarýný saðlayabilir. Haziran 2022'de Google mühendisi Blake Lemoine, üzerinde çalýþtýðý yapay zeka sohbet botu Lamda'nýn bilinçli hale geldiðini açýkladý. Tartýþmalý iddia ona iþini mal etti. Bu bölümle ilgili en ilginç þey, muhtemelen yanlýþ olan Lemoine'in iddiasý deðil, yapay zeka sohbet botu için iþini riske atmaya istekli olmasýydý. Yapay zeka insanlarý iþlerini riske atacak þekilde etkileyebilirse, baþka neleri yaptýrabilir?
Zihin ve kalpler için verilen politik mücadelede, samimiyet en etkili silahtýr ve yapay zeka milyonlarca insanla samimi iliþkileri kitle üretme yeteneði kazandý. Geçtiðimiz on yýl boyunca sosyal medya, insan dikkatini kontrol etmek için bir savaþ alaný haline geldi. Yeni nesil yapay zeka ile savaþ cephesi dikkatten samimiyete kayýyor. Yapay zeka bize sahte samimi iliþkiler sunarak, bizi belirli siyasetçilere oy vermeye veya belirli ürünleri satýn almaya ikna edebilecek.
Yeni yapay zeka araçlarý "sahte samimiyet" oluþturmadan bile, düþüncelerimiz ve dünya görüþlerimiz üzerinde muazzam bir etkiye sahip olacak. Ýnsanlar tek bir yapay zeka danýþmanýný her þeyi bilen bir tek elden çözüm olarak kullanmaya baþlayabilir. Google'ýn neden korktuðu þimdi daha iyi anlaþýlýyor. Arama yapmak yerine neden sadece orakulumuza sormayalým? Haber ve reklam endüstrileri de korkmalýdýr. Neden gazete okuyalým ki en son haberleri öðrenmek için sadece orakulumuza sormuyoruz? Ve neden reklamlara ihtiyaç duyalým ki ne satýn alacaðýmý söylemesi için sadece orakulumuza sormuyoruz?
Ancak bu senaryolar bile gerçekten büyük resmi yansýtmýyor. Konuþtuðumuz þey, potansiyel olarak insan tarihine son vermek. Tarihin sonu deðil, sadece insanlarýn egemen olduðu kýsmýnýn sonu. Tarih, biyoloji ve kültür arasýndaki etkileþimdir; yiyecek ve cinsel gibi biyolojik ihtiyaçlarýmýz ve arzularýmýz ile din ve yasalar gibi kültürel yaratýmlarýmýz arasýndaki etkileþimdir. Tarih, yasalarýn ve dinlerin yiyecek ve cinsel hayatýmýzý nasýl þekillendirdiði süreçtir.
Yapay zeka kültürü ele geçirdiðinde ve hikayeler, melodiler, yasalar ve dinler üretmeye baþladýðýnda tarihin seyri ne olacak? Matbaa ve radyo gibi önceki araçlar insanlarýn kültürel fikirlerini yaymak için yardýmcý olurken, kendi kültürel fikirlerini yaratmamýþtýlar. Yapay zeka temelde farklýdýr. Yapay zeka tamamen yeni fikirler ve tamamen yeni kültürler yaratabilir.
Öncelikle, yapay zeka ilk zamanlarýnda eðitildiði insan prototiplerini taklit edebilir. Ancak her geçen yýl, yapay zeka kültürü insanýn hiç gitmediði yerlere cesurca gidecek. Binlerce yýldýr insanlar baþka insanlarýn rüyalarýnda yaþadýlar. Gelecek on yýllarda kendimizi bir yabancý zekanýn rüyalarýnda yaþarken bulabiliriz.
Yapay zeka korkusu sadece son birkaç on yýldýr insanlýk tarafýndan korkulmaktadýr. Ancak binlerce yýldýr insanlar çok daha derin bir korku tarafýndan korkutulmuþlardýr. Hikayelerin ve imgelerin zihinlerimizi manipüle etmek ve illüzyonlar yaratmak için ne kadar güçlü olduðunu her zaman takdir etmiþizdir. Bu nedenle, eski çaðlardan beri insanlar bir illüzyonlar dünyasýnda tutsak olma korkusuyla yaþamýþlardýr.
17. yüzyýlda René Descartes, kötü niyetli bir þeytanýn onu illüzyonlar dünyasýnda tutsak etmiþ olabileceðinden korktu ve gördükleri ve duyduklarý her þeyi yaratan bir þeytana karþý geldi. Antik Yunan'da, Plato ünlü Maðara Alegorisi'ni anlattý. Bir grup insan ömür boyu bir maðarada zincirlenmiþ ve boþ bir duvara bakýyor. Bir perde. Orada çeþitli gölgeler yansýtýlýyor. Esaret altýndaki insanlar orada gördükleri illüzyonlarý gerçek sanýyorlar.
Antik Hindistan'da Budist ve Hindu bilgeler, tüm insanlarýn Maya - yani illüzyon dünyasý - içinde tutsak yaþadýklarýna dikkat çektiler. Normalde gerçek olarak kabul ettiðimiz þeyler genellikle kendi zihinlerimizdeki kurgulardan ibarettir. Ýnsanlar, bu veya þu illüzyona olan inançlarý nedeniyle birbirlerini öldürerek savaþlar bile yapabilirler.
Yapay zeka devrimi, Descartes'ýn þeytaný, Plato'nun maðarasý ve Maya ile karþý karþýya gelmemize neden oldu. Dikkatli olmazsak, illüzyonlar perdesinin arkasýnda tutsak olabiliriz - hatta orada olduðunun bile farkýnda olmayabiliriz.
Tabii ki, yapay zekanýn yeni gücü iyi amaçlar için de kullanýlabilir. Bu konuda yeterince konuþanlar olduðu için ben üzerinde durmayacaðým. Tarihçiler ve filozoflar gibi insanlarýn iþi tehlikeleri göstermek. Ancak kesinlikle yapay zeka, kanser için yeni tedaviler bulmaktan ekolojik krize çözümler bulmaya kadar sayýsýz þekilde bize yardýmcý olabilir. Karþý karþýya olduðumuz soru, yeni yapay zeka araçlarýnýn kötüye kullanýlmaktan ziyade iyiye kullanýldýðýndan nasýl emin olacaðýmýzdýr. Bunun için öncelikle bu araçlarýn gerçek kapasitelerini takdir etmemiz gerekiyor.
1945'ten beri nükleer teknolojinin insanlar için ucuz enerji üretebileceði ancak fiziksel olarak insan medeniyetini yok edebileceði biliniyor. Bu nedenle, insanlýðý korumak ve nükleer teknolojinin öncelikle iyi amaçlar için kullanýldýðýndan emin olmak için tüm uluslararasý düzeni yeniden þekillendirdik. Þimdi, zihinsel ve sosyal dünyamýzý yok edebilecek yeni bir kitle imha silahýyla baþa çýkmamýz gerekiyor.
Yeni yapay zeka araçlarýný hala düzenleyebiliriz, ancak hýzlý hareket etmeliyiz. Nükleer silahlar daha güçlü nükleer silahlar icat edemezken, yapay zeka katlanarak daha güçlü yapay zeka yapabilir. Ýlk önemli adým, güçlü yapay zeka araçlarýnýn halka açýk alanlara yayýlmadan önce sýký güvenlik kontrolleri talep etmektir. Bir ilaç þirketi, yeni ilaçlarýný kýsa ve uzun vadeli yan etkilerini test etmeden piyasaya sürmeden önce yapamadýðý gibi, teknoloji þirketleri de yeni yapay zeka araçlarýný güvenli hale getirmeden önce piyasaya sürmemelidir. Yeni teknoloji için bir Gýda ve Ýlaç Dairesi eþdeðerine ihtiyacýmýz var ve dün gerekiyordu.
Ai'nin halka açýk kullanýmlarýnýn yavaþlatýlmasý demokrasilerin daha acýmasýz otoriter rejimlerin gerisinde kalmasýna neden olmaz mý? Tam tersi. Düzenlenmemiþ ai uygulamalarý sosyal kaosa neden olacak ve otokratlara yarar saðlayacak ve demokrasileri yok edecektir. Demokrasi bir konuþmadýr ve konuþmalar dilimize dayanýr. Ai dilini hacklediðinde anlamlý konuþma yeteneðimizi yok edebilir ve böylece demokrasiyi yok edebilir.
Dünyada bir yabancý zeka ile karþýlaþtýk. Onun hakkýnda çok þey bilmiyoruz, ancak medeniyetimizi yok edebilir. Sorumsuz ai araçlarýnýn halka açýk kullanýmlarýna son verip, ai'yi bizi düzenlemeden önce düzenlemeliyiz. Ve ilk düzenleme olarak ai'nin bir ai olduðunu açýklamasýný zorunlu kýlmak öneriyorum. Birisiyle konuþtuðumda, onun insan mý yoksa ai mi olduðunu söyleyemiyorsam, bu demokrasinin sonu olur.
Bu metin bir insan tarafýndan üretilmiþtir.
Ya da öyle mi?
Yer Ýmleri