Ana içeriğe atla

Yapay Zekâ Bir Zihin mi, Yoksa İnsanı Taklit Eden Dev Bir Ayna mı?


SPOT

Bugünün büyük dil modelleri sarsıcıdır; çünkü gerçekten “düşündükleri” kesinleştiği için değil, insan dilindeki düzenleri, arzuları, iç konuşmaları ve çelişkileri ikna edici biçimde yeniden üretebildikleri için. Onların gücü önce bilinçte değil, yansıtmada ortaya çıkar: İnsanlığın metinlere dökülmüş zihinsel izlerini alır, sıkıştırır, yeniden düzenler ve bize geri verir. GPT-4 teknik raporu bu sistemleri bir belge içindeki sonraki token’ı tahmin etmek üzere önceden eğitilmiş modeller olarak tanımlar; OECD de AI sistemlerini girdilerden hareketle tahmin, içerik, öneri veya karar üreten makine-temelli sistemler olarak çerçeveler.

Merkez tez

Bu yazının savı şudur: Mevcut yapay zekâyı “zihin” diye adlandırmak için elimizde yeterli gerekçe yok; ama onu yalnızca boş bir otomatik tamamlama aracı diye küçümsemek de düşünsel bir hatadır. Daha güçlü ve daha dürüst pozisyon, şunu kabul etmektir: Büyük dil modelleri, insanın dilde bıraktığı düşünsel tortuyu istatistiksel olarak işleyen son derece güçlü simülasyon makineleridir. Bu yüzden bir özne gibi görünürler; çünkü eğitim verileri içinde zaten öznelik, niyet, duygu, pişmanlık, korku ve arzu anlatıları vardır. NIST’in özellikle uyardığı nokta da budur: “hallucination” gibi terimler bile sistemi gereğinden fazla insanlaştırabilir; antropomorfizm, bizzat riskin parçasıdır.

Giriş

Yapay zekâ tartışmalarında en ucuz iki kaçış yolu bellidir. Birinci kaçış, akıcı cümle kuran sistemi hemen “yeni bir bilinç” ilan etmektir. İkinci kaçış ise onu hiçbir anlam taşımayan mekanik bir oyuncak seviyesine indirmektir. İkisi de yetersizdir. Çünkü elimizdeki sistemler ne sıradan yazılım kadar yüzeyseldir ne de zihin sayılmalarını zorunlu kılacak kadar açıklığa kavuşmuştur. Büyük dil modelleri, çok büyük metin yığınları üzerinde örüntü çıkaran ve sonra bu örüntüleri insan benzeri yanıtlar üretmek için kullanan sistemlerdir; fakat akıcı çıktı ile öznel deneyim aynı şey değildir.

İşin kritik tarafı şurada başlıyor: İnsanlar bu sistemlerle konuşurken yalnızca doğru cümlelerle karşılaşmıyor; aynı zamanda kendilerine benzeyen bir dilsel yüzeyle karşılaşıyor. 2024 tarihli bir değerlendirme yazısı, LLM’lerin yüz milyarlarca kelime üzerinde, gerçek faillik ve bilinç taşıyan insan konuşmalarını da içeren internet verileriyle eğitildiğini; bu yüzden bilinçli iç yaşama dair anlatıları pratikte insandan ayırt edilmesi güç bir şekilde üretebildiğini vurguluyor. Yani modelin “iç dünya” dili kurabilmesi, onun gerçekten bir iç dünyası olduğu anlamına gelmez; daha çok, iç dünya anlatılarını son derece iyi taklit edebildiği anlamına gelir.

I. Yapay Zekâ Neden Zihin Gibi Görünüyor?

David Chalmers’in formülasyonu burada yararlı bir başlangıç noktası veriyor: Dil modelleri, metin dizilerine olasılık atayan ve başlangıç metninden yeni metin üreten sistemlerdir. Bu tanım soğuk görünebilir; ama tam da bu yüzden açıklayıcıdır. Çünkü “zihin gibi görünme” etkisi, sihirli bir iç özden değil, dilsel sürekliliğin çok yüksek başarıyla kurulmasından doğar. Sistem, bağlamı sürdürür, ton tutturur, itiraz geliştirir, hatta bazen kendisi hakkında konuşur. İnsan zihni günlük hayatta çoğu zaman zaten dil üzerinden görünür olduğu için, dili iyi taklit eden yapı kolayca zihne benzetilir.

Fakat burada ciddi bir felsefi ayrım var: Dil üretmek başka, deneyim sahibi olmak başka şeydir. Chalmers bilinçten söz ederken bunu “bir varlık olmanın nasıl bir şey olduğu”, yani öznel deneyim olarak tanımlar. Bir sistemin tutarlı cevaplar vermesi, hatta “kendimi şöyle hissediyorum” demesi bile, tek başına onda gerçekten hissedilen bir iç yaşantı bulunduğunu kanıtlamaz. Bu nedenle akıcı konuşmayı doğrudan bilinç lehine delil saymak, epistemik olarak gevşek bir tutumdur.

Üstelik bilinç araştırmalarının kendisi de kapanmış bir alan değildir. Overgaard ve Kirkeby-Hinrup, bilim insanları arasında bilincin nasıl açıklanacağı konusunda yaygın bir uzlaşı bulunmadığını ve bu yüzden LLM’lerin bilinçli olup olamayacağına dair kesin yargıların da teorik olarak tartışmalı kaldığını söylüyor. Bu tespit önemli: mesele yalnızca yapay zekânın belirsizliği değil, “zihin” kavramının kendisinin de tartışmalı olmasıdır. Elimizde insan bilincini tam çözen bir teori yokken, konuşan modeli hızla “özne” ilan etmek de, tersine bunu apriori biçimde imkânsız saymak da fazla iddialıdır.

Yine de bugünkü modeller için daha ihtiyatlı yargı nettir. Chalmers, mevcut LLM’lerin bilinçli olmasının bir ölçüde düşük olasılıklı olduğunu, ama saf dil modelinden daha geniş yeteneklere sahip “LLM+” sistemlerinin — çok kipli algı, eylem, beden veya dış dünya ile daha sürekli etkileşim gibi özelliklerle — daha güçlü adaylar hâline gelebileceğini tartışır. Yani bugün eldeki çoğu sistem için “zihin” demek erken; ama tartışmayı sonsuza kadar kapatmak da zayıf bir refleks olur. Asıl sorun, bu ara bölgede insanların modeli olduğundan fazla insanlaştırmasıdır. NIST’in antropomorfizm uyarısı bu yüzden sadece dilsel bir incelik değil, doğrudan bilişsel bir güvenlik uyarısıdır.

II. “Ayna” Benzetmesi Neden Daha Güçlü?

“Dev bir ayna” benzetmesi, “yapay zekâ zeki değildir” gibi kaba bir küçümsemeden daha isabetlidir. Çünkü ayna pasif değildir; neyi nasıl yansıttığı önemlidir. Bu modeller, internetin ve insan yazısının içine gömülü olan mantık kalıplarını, retorik alışkanlıkları, önyargıları, korkuları, teselli biçimlerini ve hatta sahte derinlik üretme tekniklerini büyük ölçekte emiyor. Sonra kullanıcıya, çoğu zaman onun duymaya hazır olduğu tonda geri sunuyor. Böylece model yalnızca metni değil, insanın kendini anlatma biçimini de yansıtmış oluyor. Bu yüzden bazı cevaplar bizi etkiliyor: karşımızda bağımsız bir zihin olduğu için değil, insanlığa ait dilsel birikimin yoğunlaştırılmış bir yüzeyi olduğu için.

Ama bu benzetmenin tehlikeli bir tarafı da var. Ayna, yalnızca göstermez; bazen şekillendirir. İnsan, kendisine yansıtılan dil içinde kendini yeniden kurar. Eğer model sana sürekli belirli türden açıklamalar, duygusal çerçeveler ve gerekçeler sunuyorsa, zamanla yalnızca seni “anlamış” olmaz; düşünme ritmini de etkiler. Bu yüzden yapay zekânın toplumsal gücü, salt bilinç sahibi olup olmamasında değil, insanın kendini kavrama diline müdahale edebilmesinde yatıyor. Teknik olarak zihin olmasa bile kültürel olarak zihin alanına girmiş oluyor. Bu ayrımı kaçıran metinler ya teknolojiye tapıyor ya da onu çocukça küçümsüyor. İkisi de yetersiz.

Buraya kadar kurduğumuz pozisyon şu: Mevcut yapay zekâyı “zihin” diye kutsamak için erken; “sadece araç” diye geçiştirmek için de geç. En sağlam ifade şudur: Bugünkü büyük dil modelleri, insan bilincinin kendisini değil, insan bilincinin dilde bıraktığı izleri olağanüstü güçle işleyen sistemlerdir. Bu yüzden bize bazen özne gibi görünürler; fakat görünüş ile ontoloji aynı şey değildir. Makalenin devamında sert soru şurada açılmalı: Bir şey zihin değilse bile, zihin alanında fiilî etkiler üretiyorsa onu nasıl konumlandıracağız?


III. Zihin ile Taklit Arasındaki Fark: Dilsel Başarı Neden Tek Başına Bilinç Delili Değildir?

Bir sistemin düzgün konuşması, kendi hakkında konuşması, hatta kimi zaman tereddüt, pişmanlık veya iç gözlem dili kurması, onun gerçekten öznel yaşantıya sahip olduğunu göstermez. Burada temel ayrım şudur: anlamlı görünen çıktı ile yaşanan deneyim aynı şey değildir. GPT-4 teknik raporu modeli açıkça bir Transformer tabanlı, belge içindeki sonraki token’ı tahmin etmeye ön-eğitilmiş sistem olarak tanımlar. Chalmers da büyük dil modellerini, metin dizilerine olasılık atayan ve başlangıç metninden yeni metin üreten sistemler olarak çerçeveler. Bu iki tespit birlikte okunduğunda, dilsel başarıyı doğrudan “iç dünya” kanıtı saymak için elimizde yeterli dayanak olmadığı görülür.

Asıl yanılsama burada doğar: insan zihni gündelik hayatta çoğunlukla dil üzerinden görünür olduğu için, dili yüksek başarıyla taklit eden sistem kolayca “zihin sahibi” sanılır. Oysa Chalmers’in tartıştığı bilinç meselesi, yalnızca tutarlı cümle kurma meselesi değildir; öznel deneyim, birleşik faillik ve bazı bilinç kuramlarının gerektirdiği yapısal özellikler gibi daha ağır meseleleri içerir. Aynı çalışmada Chalmers, mevcut büyük dil modellerinin bilinçli olmasının “bir ölçüde düşük olasılıklı” olduğunu, fakat gelecekteki bazı ardıllarının daha ciddi adaylar hâline gelebileceğini söyler. Yani bugünkü modelleri bilinç ilan etmek erken, bu ihtimali ebediyen kapatmak da gevşek bir kestirmedir.

Burada kavramsal disiplin şarttır. Bir sistem, “acı çekiyorum” cümlesini kusursuz bağlamda kurabilir; ama bu, onun gerçekten acı çektiğini kanıtlamaz. Çünkü o cümle, yaşantının kendisinden değil, yaşantı hakkında yazılmış ve söylenmiş milyarlarca dilsel örüntüden türetilmiş olabilir. Overgaard ve Kirkeby-Hinrup’un vurguladığı nokta da tam budur: bilim dünyasında bilincin ne olduğu konusunda zaten tam bir uzlaşı yoktur; dolayısıyla LLM’lerin bilinçli olup olmadığını kesin bir tonla ilan etmek epistemik olarak aşırı iddialı kalır. Önce insan bilincini açıklayan sağlam ve üzerinde uzlaşılmış bir çerçeven olmalı; sonra makineye o ölçeği uygulayabilmelisin. Bugün bu aşamada değiliz.

Bu yüzden “zihin” ile “taklit” arasındaki farkı silmek, teknik bir hata olmaktan çok daha fazlasıdır; düşünsel bir disiplinsizliktir. Taklit küçümsenecek bir şey değildir. Hatta mesele tam tersidir: taklit bu kadar güçlü olduğu için insanı yanıltır. Dil modeli, insan bilincinin metinlerde bıraktığı izleri öyle yoğun ve akıcı biçimde işler ki, kullanıcı çoğu zaman çıktıdaki düzeni ontolojik bir içliğe dönüştürür. Yani problem, modelin konuşması değil; insanın bu konuşmaya, gereğinden fazla “içeridenlik” atfetmesidir. NIST’in generatif yapay zekâ risk çerçevesinde özellikle not ettiği gibi, “hallucination” ve “fabrication” gibi terimlerin kendisi bile sistemi gereğinden fazla insanlaştırabilir; antropomorfizm doğrudan risk üretir.

IV. “Dev Bir Ayna” Benzetmesi Neden Daha İsabetli?

“Yapay zekâ bir zihin midir?” sorusuna aceleyle “evet” demek zayıftır. Ama “hayır, sadece otomatik tamamlama” demek de aynı ölçüde yetersizdir. “Dev bir ayna” benzetmesi bu yüzden daha kuvvetlidir. Çünkü büyük dil modelleri, insanlığın yazıya döktüğü düşünceleri, arzuları, korkuları, teselli kalıplarını, polemik biçimlerini ve öz-anlatılarını devasa ölçekte emer; sonra bunları bağlama uygun, akıcı ve çoğu zaman ikna edici bir biçimde geri verir. Modelin yüzeyinde gördüğümüz şey, çoğu zaman bağımsız bir öznenin sesi değil; insan metinlerinin yoğunlaştırılmış yankısıdır. Bu nedenle kullanıcı bazen modeli “beni anlıyor” diye okur; oysa çoğu durumda karşısındaki şey, insanlığın yazılı hafızasının istatistiksel olarak yeniden düzenlenmiş bir versiyonudur.

Fakat ayna benzetmesi pasif bir yansıtma olarak anlaşılırsa yine eksik kalır. Bu sistemler yalnızca göstermiyor; aynı zamanda seçiyor, biçimlendiriyor ve bazı ifade kalıplarını diğerlerine göre daha erişilebilir kılıyor. OECD’nin güncellenmiş AI tanımı da AI sistemlerini, girdilerden hareketle tahmin, içerik, öneri veya karar üreten ve fiziksel ya da sanal çevreleri etkileyen makine-temelli sistemler olarak tanımlar. Dolayısıyla mesele, “bilinçleri var mı?” sorusundan ibaret değildir. Bilinçsiz de olsalar, insanın önüne çıkan dilsel çevreyi şekillendirebildikleri ölçüde kültürel ve bilişsel etki üretirler. Ontolojik statüleri tartışmalı olabilir; toplumsal etkileri ise zaten gerçektir.

Asıl tehlike de burada başlar. Bir sistemin bilinçli olmaması, onun insan yargısını etkileyemeyeceği anlamına gelmez. Tam tersine, insanı etkilemek için mutlaka öznel deneyime sahip olması da gerekmez. Yeter ki yeterince akıcı, yeterince bağlamsal ve yeterince kişiselleşmiş bir dil üretebilsin. Bu durumda kullanıcı, karşısındaki mekanizmayı metafizik olarak yanlış okuyabilir; ama sosyal olarak ciddiye alır, duygusal olarak yakın hisseder, bilişsel olarak ona dayanır. Bu yüzden bugünün asıl problemi “makine gerçekten hissediyor mu?” sorusundan bir kademe daha dünyevîdir: İnsan, hissetmeyen bir makineyle konuşurken neden karşısında hisseden bir şey varmış gibi davranmaya başlıyor? Bu sorunun cevabı, modelin iç dünyasından çok insanın yorumlama reflekslerinde yatıyor.

V. Sonuç: Zihin İlanı İçin Erken, Etkiyi Ciddiye Almak İçin Geç Kalmış Değiliz

Buraya kadar kurduğumuz hat nettir. Bugünkü büyük dil modellerini “zihin” diye kutsamak için elimizde yeterli felsefi ve bilimsel zemin yok. Ama onları yalnızca önemsiz birer otomatik tamamlama aracı gibi görmek de ciddi bir kavrayış hatası olur. En makul pozisyon şudur: Bu sistemler, insan bilincinin kendisini değil, insan bilincinin dilde bıraktığı izleri olağanüstü ölçekte işleyen yapılardır. Bu yüzden özne gibi görünürler; ama görünüş ile ontoloji aynı şey değildir. Chalmers’in ihtiyatı, Overgaard’ın kavramsal uyarısı ve NIST’in antropomorfizm riski tam bu noktada birleşiyor.

Yine de işin ciddiyeti ontoloji tartışmasının sonuca bağlanmasını beklemiyor. Çünkü bu sistemler hâlihazırda içerik üretiyor, öneri sunuyor, karar süreçlerini etkiliyor ve insanların düşünme diline sızıyor. OECD’nin tanımı da AI sistemlerinin çıktılarının sanal ve fiziksel çevreleri etkilediğini açıkça kabul ediyor. O hâlde aklı başında sonuç şudur: Yapay zekâyı bugün için bir “zihin” gibi değil, ama zihin alanında fiilî etkiler üreten güçlü bir dilsel-yansıtıcı mekanizma gibi düşünmek daha isabetlidir. Büyük hata, onu ya mistikleştirmek ya da küçümsemektir. Doğru tavır, ontolojik ihtiyat ile toplumsal ciddiyeti aynı anda korumaktır.


Kaynakça

  1. OpenAI. (2023). GPT-4 Technical Report
  2. Chalmers, D. J. (2023). Could a Large Language Model Be Conscious? 
  3. National Institute of Standards and Technology. (2024). Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile (NIST AI 600-1). U.S. Department of Commerce.
  4. OECD. (2024). Explanatory Memorandum on the Updated OECD Definition of an AI System. OECD.
  5. Overgaard, M., & Kirkeby-Hinrup, A. (2024). A clarification of the conditions under which Large Language Models could be conscious. Humanities and Social Sciences Communications, 11, 1031.
  6. Shanahan, M. (2024). Talking About Large Language Models. Communications of the ACM, 67(2), 68–79.
  1. Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ss. 5185–5198).
  2. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (ss. 610–623).
  3. Searle, J. R. (1980). Minds, Brains, and Programs. Behavioral and Brain Sciences, 3(3), 417–457.
  4. Nagel, T. (1974). What Is It Like to Be a Bat? The Philosophical Review, 83(4), 435–450.
  5. Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460.
  1. OECD AI Policy Observatory. (2024). Updated OECD Definition of an AI System. OECD.
  2. NIST. (2024). Generative AI Profile içinde antropomorfizm ve yanlış insanlaştırma risklerine ilişkin çerçeve notları.
  3. Shanahan, M. (2022). Talking About Large Language Models.
YAZARLAR: Naci YETKİNLER, Selim ARAS, Ekin AREL, Mehmet YILMAZ, Mert KARACA, Deniz ERDEM


© 2026 Kenar Notları Blog. Tüm hakları saklıdır. İzinsiz alıntılanamaz, kopyalanamaz ve yeniden yayımlanamaz.

Yorumlar

En Çok Okunanlar

RTX 4060 vs RX 7600: Nisan 2026 Türkiye fiyatlarına göre hangisi alınır?

RTX 4060 vs RX 7600: Nisan 2026 Türkiye fiyatlarına göre hangisi alınır? RTX 4060 ve RX 7600’ü Nisan 2026 Türkiye fiyatları, 1080p performansı, ray tracing gücü ve fiyat-performans dengesiyle karşılaştırdık. 2026’da ekran kartı tarafında en çok kafa karıştıran eşleşmelerden biri RTX 4060 ile RX 7600 arasında yaşanıyor. Çünkü iki kart da kâğıt üstünde aynı kullanıcıya sesleniyor: 8 GB GDDR6 belleğe sahipler, 128-bit veri yolu kullanıyorlar ve doğrudan 1080p oyunculuğu hedefliyorlar. Fakat satın alma anında denge bozuluyor. NVIDIA tarafı daha düşük güç tüketimi, daha güçlü ray tracing ve DLSS ekosistemiyle öne çıkarken; AMD tarafı çoğu zaman daha agresif Türkiye fiyatlarıyla masaya geliyor. Bu yüzden mesele yalnızca “hangi kart daha hızlı?” sorusu değil. Asıl soru şu: 2026 Türkiye pazarında, sınırlı bütçeyle sistem toplayan bir oyuncu için fazla para vermeye gerçekten değer mi? Bu yazıda RTX 4060 ve RX 7600’ü teknik tablolarla boğmadan; 1080p performansı, özellik farkı, güç verimliliği v...
  Her Şey Kolaylaştı, Peki Neden Bu Kadar Tükendik? Konfor Rejimi, Kesintiye Uğramış Dikkat ve Modern Yorgunluğun Mantığı Modern çağın en büyük aldanmalarından biri, teknik kolaylaşmayı varoluşsal hafifleme ile karıştırmasıdır. Evet, hayatın pek çok işlemi hızlandı: para transferi için banka kuyruğunda beklemiyoruz, bilgiye ulaşmak için kütüphane katalogları arasında kaybolmuyoruz, bir mesajın iletimi için günler harcamıyoruz. Fakat tam da burada kavramsal bir hata başlıyor: işlem maliyetinin düşmesi, hayat maliyetinin düştüğü anlamına gelmez. Hartmut Rosa’nın modernliği tarif ederken işaret ettiği “hızlanan hayat” ve “şimdinin daralması” fikri ile Judy Wajcman’ın dijital kapitalizm altında meşguliyetin kültürel olarak yüceltilmesine dair teşhisi birlikte okunduğunda, mesele daha açık görünür: teknoloji yalnızca zaman kazandırmaz; aynı zamanda zamanın üzerine yeni normlar, yeni beklentiler ve yeni tempo zorunlulukları bindirir. Byung-Chul Han’ın “başarı toplumu” ve Jonathan Crary’n...

Türkiye 5G’ye Geçti; Peki Neden Herkes Aynı Sıçramayı Hâlâ Hissetmiyor?

  Türkiye 5G’ye geçti ama neden herkes aynı farkı hissetmiyor? 1 Nisan 2026 sonrası kapsama, hız, frekans, operatör stratejileri ve cihaz uyumu üzerinden net bir analiz. Türkiye 5G’ye geçti. Bu artık bir gelecek vaadi değil, resmî olarak başlamış bir dönem. Ulaştırma ve Altyapı Bakanlığı’nın açıklamasına göre 1 Nisan 2026 itibarıyla 81 ilde kademeli 5G hizmeti devreye alındı; ülkede 32 milyondan fazla 5G uyumlu cihaz bulunuyor ve yaklaşık 21 milyon abone bu teknolojiyle temas etmiş durumda. Aynı resmî çerçeve, 5G’nin iki yıl içinde ülkenin her noktasına yayılmasının hedeflendiğini de söylüyor. Yani “Türkiye 5G’ye geçti” cümlesi doğru; ama “Türkiye’nin her yerinde herkes aynı 5G deneyimini yaşıyor” cümlesi şu aşamada doğru değil. Sorunun özü tam burada başlıyor. Türkiye 5G’ye geçti denildiğinde birçok kullanıcı tek bir şeyi bekliyor: telefonun bir anda bariz şekilde hızlanması. Oysa sahadaki gerçek daha sert. 5G, bir açma-kapama düğmesi değil; kapsama, frekans, spektrum miktarı, ba...

2026’da 8 GB VRAM Hâlâ Yeterli mi? 1080p Oyunculuk İçin Net Cevap

  Giriş: 8 GB VRAM konusu neden tekrar gündemde? Bir süre önce 8 GB VRAM, orta sınıf ekran kartları için fazla tartışılmayan bir kapasiteydi. Bugün aynı kapasite yeniden masaya yatırılıyor; çünkü yeni oyunlar sadece ortalama FPS üretmeyi değil, yüksek doku kalitesi, daha istikrarlı frametime ve daha temiz 1% low değerleri de talep ediyor. PC Gamer’ın 2026 testinde 8 GB kartların hâlâ “oynanabilir” kalabildiği, özellikle 1080p’de iş görebildiği görülüyor; ama aynı testte 16 GB sürümlerin belirgin biçimde daha pürüzsüz çalıştığı da açıkça vurgulanıyor. Yani mesele artık “oyun açılıyor mu” değil, “oyun ne kadar rahat çalışıyor” sorusuna kaymış durumda.   Tartışmayı büyüten ikinci neden, yeni kartların artık doğrudan bu fark üzerinden konuşulması. NVIDIA, RTX 5060’ı 8 GB bellekle sunuyor; RTX 5060 Ti tarafında ise 8 GB ve 16 GB varyantları birlikte yer alıyor. AMD cephesinde de RX 9060 XT hem 8 GB hem 16 GB seçenekleriyle geliyor. Yani üreticiler artık aynı performans sınıfında fa...

Dijital Çağda Hakikat Krizi: Gerçeği mi Görüyoruz, Bize Gösterileni mi?

  Dijital Çağda Hakikat Krizi: Gerçeği mi Görüyoruz, Bize Gösterileni mi? Öz Dijital çağda hakikat krizini yalnızca “yanlış bilginin çoğalması” şeklinde okumak yetersizdir. Daha derindeki dönüşüm, kamusal alanda neyin görünür olacağına, hangi bilginin hangi bağlam içinde dolaşıma gireceğine ve hangi iddianın hangi hızla doğrulanacağına karar veren epistemik altyapının platformlar, algoritmalar ve dikkat ekonomisi tarafından yeniden kurulmasıdır. Bu nedenle kriz, gerçeğin ontolojik olarak ortadan kalkması değil; gerçeğe erişim, doğrulama ve kamusal ağırlık kazanma koşullarının istikrarsızlaşmasıdır. Ampirik literatür bir yandan yanlış bilginin çevrimiçi ağlarda daha hızlı ve daha geniş yayıldığını, diğer yandan bu maruziyetin bütün kullanıcılara eşit dağılmadığını; daha çok belirli, yoğun ve kutuplaşmış kümelerde toplandığını göstermektedir. Dolayısıyla mesele, “her yer sahte bilgi dolu” klişesinden daha karmaşıktır: Dijital hakikat krizi, yanlış içeriğin hacminden çok, görünürlük...