محادثات مع شات جي بي تي تبرز في نتائج بحث غوغل وتجذب الانتباه

أحدث تقرير حديث نشرته مجلة “فاست كامبني” ضجة كبيرة بين مستخدمي الذكاء الاصطناعي، حيث كشف أن آلاف المحادثات التي أُجريت عبر “ChatGPT” وتمت مشاركتها باستخدام خاصية “المشاركة” أصبحت تظهر في نتائج بحث غوغل،.

ووصف خبراء الخصوصية الرقمية هذا التطور بأنه “خطير ومروع”، مشيرين إلى أنه يمثل مثالًا صارخًا على الفجوة بين وعي المستخدمين وواقع عمل المنصات الذكية، لا سيما عندما يتعلق الأمر بالتعامل مع أدوات تحليلية وتخزينية متقدمة مثل “ChatGPT”.

كيف يحدث ذلك؟

وفقًا للمصادر، فإن الضغط على زر “مشاركة” في “ChatGPT” يُنتج رابطًا للمحادثة يمكن نسخه ومشاركته،.

لكن ما يجهله كثير من المستخدمين هو أن هذه الروابط قد تُفهرس من قِبل محركات البحث، وبمجرد فهرستها، يمكن لأي شخص العثور عليها باستخدام جزء من عنوان الرابط فقط.

متابعو الموقع يشاهدون:

أظهرت المجلة أن أكثر من 4500 محادثة قد تم بالفعل فهرستها على غوغل وتظهر في نتائج البحث، ومن المحتمل أن العدد الحقيقي أكبر بكثير، حيث قد لا يكون غوغل قد فهرس جميع المحتويات بعد.

محتوى حساس

كشفت التحقيقات أن بعض هذه المحادثات تحتوي على معلومات شخصية حساسة للغاية، بما في ذلك:

  • اعترافات بالإدمان،
  • روايات عن العنف الجسدي،
  • نقاشات حول اضطرابات نفسية مثل القلق والاكتئاب واضطراب ما بعد الصدمة (PTSD)،
  • تفاصيل دقيقة عن الحياة الخاصة أو العائلية،
  • حالات تتعلق بـ”البرمجة النفسية” وصدمات الطفولة،

وفي بعض الحالات، كشف المستخدمون أسمائهم وأماكن إقامتهم ووظائفهم دون قصد، مما يسهل تعقب هوياتهم رغم أن “OpenAI” لا تعرض بيانات شخصية بشكل مباشر.

مسؤولية المستخدم أم خطأ تقني؟

وفقًا لموقع الدعم الفني لـ OpenAI، فإن مشاركة المحادثة لا تعني بالضرورة ظهورها في محركات البحث،.

وعند إنشاء الرابط، يظهر مربع حواري يُتيح للمستخدم اختيار ما إذا كان يريد إدراج الرابط في نتائج البحث أم لا،.

لكن هذا الخيار غير متاح على أنظمة أندرويد و”iOS”، بل يظهر فقط عبر موقع الويب، مما قد يُوقع المستخدمين في فخ النشر العلني دون إدراك،.

وفي الوقت نفسه، يقوم محرك البحث غوغل تلقائيًا بفهرسة أي صفحة عامة ما لم يُطلب منه العكس من مالك الموقع، وهو ما يُفسر تسرب هذه الروابط إلى نتائج البحث.

يتزامن هذا الكشف مع نتائج استطلاعات رأي تُظهر أن:

  • نصف الأميركيين تقريبًا استخدموا أدوات الذكاء الاصطناعي للدعم النفسي،
  • 3 من كل 4 تحدثوا إلى “ChatGPT” عن القلق،
  • 2 من كل 3 طلبوا نصائح شخصية،
  • 60% ناقشوا حالات اكتئاب أو معاناة نفسية،

ما يعني أن هذه المنصة أصبحت، عن غير قصد، بديلاً رقمياً لجلسات العلاج النفسي بالنسبة للكثيرين، مع غياب الضمانات الأساسية لحماية السرية والخصوصية.

موقف OpenAI

استجابةً للمخاوف، قامت “OpenAI” مؤخرًا بإيقاف خاصية “المشاركة” أو جعلها غير مفعّلة افتراضيًا، للحد من احتمال تسرب المزيد من المحادثات،.

كما حذر الرئيس التنفيذي للشركة، سام ألتمان، في تصريحات إعلامية من إدخال معلومات حساسة في المحادثات، موضحًا أن الشركة قد تضطر لتسليم البيانات في حال وجود أمر قضائي،.

ورغم ذلك، لم يُعلق ألتمان بشكل مباشر على مسألة فهرسة المحادثات في غوغل أو مدى وضوح إعدادات الخصوصية لدى المستخدمين،.

ويُشار إلى أن هذه الحادثة ليست معزولة، فقد واجهت شركات مثل ميتا (فيسبوك سابقًا) مواقف مشابهة عندما بدأت روبوتات الدردشة الخاصة بها بعرض استفسارات المستخدمين ضمن خلاصة المحتوى،.

ويحذر الخبراء من أن ضعف الوعي الرقمي وعدم فهم إعدادات الخصوصية في التطبيقات الذكية يمكن أن يؤدي إلى كوارث رقمية تمس الحياة الشخصية للمستخدمين، في وقت أصبحت فيه هذه التطبيقات تلعب دورًا محوريًا في حياة الأفراد.

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *