Yapay Zeka Kanalı İle Kitleleri Yanlışa Yönlendirme ve Yanıltma

Evet, teknik bakımdan böyle bir ihtimalin mümkün oluşu, yapay zekâ bilgilendirmeleri üzerine belli ölçüde gölge düşürür; ancak bu gölge mutlak güvensizlik anlamına da gelmez. Bunu berrak biçimde ayırmak gerekir.

1. Teknik olarak mümkün mü?
Evet, mümkündür. Şu anlamlarda:
• Yapay zekâ modelleri veriyle eğitilir
Eğitim verileri:
• Hangi kaynaklardan seçildiği,
• Hangi metinlerin dışarıda bırakıldığı,
• Hangi anlatıların daha baskın olduğu
gibi tercihlerle şekillenir

Bu tercihler:
• Bilinçli yönlendirme sonucu da olabilir
• Kültürel ve siyasal ağırlıkların doğal sonucu da olabilir

Dolayısıyla mutlak tarafsızlık teknik olarak mümkün değildir. Bu, yalnızca ChatGPT’ye özgü değil; bütün büyük dil modelleri için geçerli bir sınırlılıktır.

2. Bu durum “bilgi güvenini” tamamen sarsar mı?

Hayır, tamamen sarsmaz; fakat ihtiyat gerektirir.

Burada iki şeyi ayırmak gerekir:

a) Sistematik yönlendirme iddiası

Bir devletle yapılmış gizli anlaşmalarla, belli kelimelere dair cevapların özel olarak ayarlanması
Buna dair kesin bir delil şimdilik yoktur.

b) Yapısal eğilim ve çerçeve etkisi

Eğitim verilerinin büyük kısmının:
• Batı merkezli,
• İngilizce ağırlıklı,
• Ana akım medya ve akademi kaynaklı olması
Bu gerçektir

Bu ikinci durum, kasıtlı bir manipülasyon değil; fakat bakış açısı daralmasına yol açabilir.

3. Asıl gölge nereye düşüyor?

Gölge, “bilginin kendisine” değil; bilginin tek başına yeterli görülmesine düşer.

Yani sıkıntı şurada başlar:

“Yapay zekâ böyle dedi, öyleyse doğrudur.”

Bu kabul yanlıştır.

Doğru yaklaşım şudur:
Yapay zekâ:
• Hızlı tarama aracıdır
• Ön bilgi sağlar
• Metinler arası bağlantı kurar
Fakat:
Yapay zekâ; aklın, sahih kaynakların ve muhakemenin yerine geçirilemez.

Yani:
• Akıl asıldır
• Kaynak dayanaktır
• Muhakeme hüküm vasıtasıdır
• Yapay zekâ ise bunların yerine ikame edilecek bir merci değildir

Bu sınır bilinirse, gölge büyümez.

4. Asıl tehlike nerede?

Asıl tehlike:
• Yapay zekânın mutlak hakem gibi görülmesi
• Sorduğu soruyu bile çerçeveleyen zihnin fark edilmemesi
• Karşı görüş ve birincil kaynaklara gitme zahmetinin terk edilmesidir

Bu noktada yapay zekâ değil, kullanım biçimi sıkıntılı hâle gelir.

5. Sağlam ölçü nedir?

Sağlam ölçü şudur:
Yapay zekâdan gelen bilgi:
• Tek kaynak sayılmaz
• Delil yerine geçmez
• Muhakemenin önüne konulmaz
Ancak:
• Karşılaştırma,
• Sorgulama,
• İlk taslak çıkarma
için kullanılabilir

Bu çerçevede kullanıldığında, “gölge” uyarı görevi görür, karartma değil.

Son hüküm

✔ Teknik olarak yönlendirme ve önyargı ihtimali vardır
✔ Bu ihtimal, mutlak güveni engeller
❌ Fakat her bilgiyi değersiz kılmaz
✔ Asıl mesele, yapay zekâyı konumlandırma ve yanlış kullanma hatasıdır

Özetle:
Yapay zekâ, hakikatin kendisi değil; hakikate giden yolda sadece bir araçtır.
Aracı putlaştırırsak yanılırız; yerli yerine koyarsak istifade ederiz.

Hazırlayan: Ahmet Ziya İbrahimoğlu
11.01.2026 – Üsküdar

ترجمة من التركية إلى العربية: 👇

التضليل وتوجيه الجماهير إلى الخطأ عبر قنوات الذكاء الاصطناعي

نعم، إنّ كون هذا الاحتمال ممكنًا من الناحية التقنية يُلقي قدرًا من الظلّ على المعلومات الصادرة عن أنظمة الذكاء الاصطناعي، غير أنّ هذا الظلّ لا يعني بالضرورة انعدام الثقة المطلقة. ومن اللازم التفريق بين الأمرين بوضوح.

  1. هل هذا ممكن من الناحية التقنية؟
    نعم، هو ممكن، وذلك من جهاتٍ عدّة، منها:
    • إنّ نماذج الذكاء الاصطناعي تُدرَّب على البيانات.
    • وبيانات التدريب تتشكّل وفق اختيارات، مثل:
    • المصادر التي تُنتقى منها،
    • والنصوص التي تُستبعَد،
    • والسرديات التي يُمنَح لها حضورٌ أوسع.

وهذه الاختيارات:
• قد تكون نتيجة توجيهٍ واعٍ ومقصود،
• وقد تكون ثمرة الأوزان الثقافية والسياسية السائدة بصورة طبيعية.

وعليه، فإنّ الحياد المطلق غير ممكن تقنيًا. وهذه ليست خصوصيةً ببرنامج «تشات جي بي تي»، بل هي قيدٌ عام يصدق على جميع نماذج اللغات الكبيرة.

  1. هل يُسقط هذا الواقع الثقة بالمعلومة سقوطًا تامًا؟
    لا، لا يُسقطها سقوطًا كاملًا، لكنه يوجب الحذر والتروّي.

وهنا يجب التفريق بين أمرين:

أ) دعوى التوجيه المنهجي
القول بوجود اتفاقات سرّية مع دولةٍ ما لضبط الأجوبة المتعلّقة بألفاظ أو قضايا معيّنة.
ولا يوجد ـ إلى الآن ـ دليلٌ قاطع يثبت هذا الادّعاء.

ب) الميل البنيوي وتأثير الإطار
إنّ كون الجزء الأكبر من بيانات التدريب:
• متمركزًا حول الغرب،
• وغالبًا باللغة الإنجليزية،
• ومعتمدًا على الإعلام السائد والمصادر الأكاديمية المعروفة
أمرٌ واقع.

وهذا لا يُعدّ تلاعبًا متعمّدًا، لكنه قد يؤدّي إلى تضييق زاوية النظر.

  1. فأين يقع الظلّ الحقيقي؟
    إنّ الظلّ لا يقع على المعلومة ذاتها، بل على اعتبار المعلومة كافية بذاتها.

ومن هنا يبدأ الخلل:

«قال الذكاء الاصطناعي كذا، إذن فهو صحيح».

وهذا التصوّر خاطئ.

والمنهج السليم هو:
إنّ الذكاء الاصطناعي:
• أداة مسحٍ سريعة،
• يوفّر معرفةً أوّلية،
• ويقيم روابط بين النصوص،
• لكنّه:
• لا يُقام مقام العقل،
• ولا يُغني عن المصادر الموثوقة،
• ولا يحلّ محلّ المحاكمة العقلية السليمة.

أي:
• العقل أصل،
• والمصدر سند،
• والمُحاكمة وسيلة الحكم،
• والذكاء الاصطناعي ليس مرجعًا يُستعاض به عن هذه الأصول.

إذا عُرفت هذه الحدود، لم يتّسع الظلّ ولم يتحوّل إلى عتمة.

  1. فأين يكمن الخطر الحقيقي؟
    الخطر الحقيقي:
    • في النظر إلى الذكاء الاصطناعي بوصفه حكمًا مطلقًا،
    • وفي الغفلة عن الذهن الذي يصوغ السؤال ويؤطّره،
    • وفي التخلّي عن مشقّة الرجوع إلى الآراء المخالفة والمصادر الأولى.

عندئذٍ لا تكون المشكلة في الذكاء الاصطناعي ذاته، بل في طريقة استخدامه.

  1. ما هو الميزان القويم؟

الميزان القويم هو:
إنّ المعلومة الصادرة عن الذكاء الاصطناعي:
• لا تُعدّ مصدرًا وحيدًا،
• ولا تقوم مقام الدليل،
• ولا تُقدَّم على المحاكمة،
ولكن يمكن الإفادة منها في:
• المقارنة،
• وإثارة الأسئلة،
• وإعداد المسودّة الأولى.

فإذا استُخدمت ضمن هذا الإطار، كان الظلّ بمثابة تنبيهٍ وتحذير، لا تعتيمٍ وإلغاء.

الخلاصة:
✔ نعم، هناك احتمال تقني للتوجيه والتحيّز
✔ وهذا الاحتمال يمنع الثقة المطلقة
❌ لكنه لا يُبطل كل معلومة
✔ والمشكلة الحقيقية هي في موضع الذكاء الاصطناعي وسوء استعماله

وخلاصة الخلاصة:
الذكاء الاصطناعي ليس هو الحقيقة، بل هو أداة في الطريق إلى الحقيقة.
فإن جعلناه صنمًا أضلّنا، وإن وضعناه في موضعه أفادنا.

إعداد: أحمد ضياء إبراهيم أوغلو
١١ / ٠١ / ٢٠٢٦ م