تكنولوجيا

أوبن إيه آي تعترف: GPT-5 ما زال يهلوس رغم التقدم الكبير


في السنوات الأخيرة، أحدثت نماذج الذكاء الاصطناعي اللغوية تحولًا جذريًا في طريقة تفاعل البشر مع المعلومات، بدءًا من البحث والتعلم وصولًا إلى الكتابة الإبداعية وإنتاج الأفكار. ومع ذلك، فإن هذه الثورة الرقمية لم تخلُ من تحديات، على رأسها ظاهرة تعرف اصطلاحًا بـ “الهلوسة”، أي إنتاج إجابات تبدو مقنعة للوهلة الأولى، لكنها في جوهرها غير صحيحة أو مضللة.

ومع إطلاق GPT-5، وهو أحدث نموذج لغوي من تطوير شركة أوبن إيه آي، كانت التوقعات أن يتم تجاوز هذه المعضلة بشكل شبه كامل. إلا أن الشركة اعترفت مؤخرًا بأن الهلوسة ما زالت قائمة، وإن كان معدلها قد انخفض مقارنة بالإصدارات السابقة، مؤكدة أن المشكلة مرتبطة بعمق بآلية عمل هذه النماذج، وليست مجرد خلل تقني عابر يمكن إصلاحه بسهولة.


ما هي “الهلوسة” في الذكاء الاصطناعي؟

المقصود بالهلوسة في النماذج اللغوية هو إنتاج استجابات غير صحيحة لكنها تُعرض بثقة عالية، بحيث يعتقد المستخدم أنها دقيقة. على سبيل المثال، قد يجيب النموذج عن سؤال تاريخي بذكر حدث لم يقع أصلًا، أو يورد اسم شخصية في سياق خاطئ.

الخطورة هنا لا تكمن فقط في الخطأ نفسه، بل في الطريقة التي يُقدَّم بها الخطأ: إذ يظهر على أنه حقيقة مؤكدة، مما قد يؤدي إلى تضليل المستخدمين، خصوصًا غير المتخصصين أو من يعتمدون على الذكاء الاصطناعي كمصدر رئيسي للمعلومات.


جذور المشكلة: كيف تتعلم النماذج؟

تعتمد النماذج اللغوية مثل GPT على أسلوب يقوم على التنبؤ بالكلمة التالية في الجملة، استنادًا إلى مليارات الأمثلة التي جُمعت من النصوص على الإنترنت والكتب والمصادر الأخرى. هذه التقنية فعّالة جدًا في تقليد اللغة الطبيعية وإنتاج نصوص منسجمة من الناحية الأسلوبية والنحوية، لكنها تواجه صعوبات حين يتعلق الأمر بـ الحقائق الدقيقة أو المعارف النادرة.

على سبيل المثال:

  • إذا كان السؤال شائعًا وذو إجابة موثقة بكثرة، فإن النموذج يؤدي بشكل جيد.
  • أما إذا كان السؤال متخصصًا أو غير شائع، فهنا يزداد احتمال أن “يتخيل” النموذج إجابة ليملأ الفراغ بدلاً من الاعتراف بعدم معرفته.

لماذا لم تُحل المشكلة بعد؟

توضح أوبن إيه آي أن تحسين الدقة الكلية للنموذج لا يعني بالضرورة القضاء على الهلوسة. فقد أظهرت الاختبارات أن بعض النماذج السابقة قدمت إجابات صحيحة بنسبة أعلى، لكنها في المقابل ارتكبت مزيدًا من الأخطاء الفادحة.

أما GPT-5 فقد تبنى نهجًا مختلفًا:

  • أقل ميلًا إلى التخمين.
  • أكثر تحفظًا في الحالات التي يفتقر فيها إلى المعرفة.
  • رغم ذلك، ما زال ينتج أحيانًا استجابات مضللة.

هذا التوازن الجديد بين الثقة و التحفظ جعل GPT-5 أكثر موثوقية من سابقيه، لكنه لا يزال بعيدًا عن الكمال.


تحدي التقييم: هل نستخدم المقياس الصحيح؟

تشير أوبن إيه آي إلى أن أحد أكبر التحديات يكمن في أساليب تقييم الأداء داخل الصناعة. غالبية المؤشرات تركز على نسبة الإجابات الصحيحة فقط، لكنها تتجاهل تمامًا خطورة الإجابات الخاطئة.

هنا تظهر مشكلة:

  • نموذج يعطي 80% إجابات صحيحة و20% خاطئة لكنه يعرضها بثقة عالية، قد يكون أكثر خطورة من نموذج يعطي 70% صحيحة لكنه يتوقف أو يعترف بعدم المعرفة في الـ30% الأخرى.

لذلك تدعو الشركة إلى إعادة صياغة معايير التقييم بحيث تُعطى النماذج فرصة أكبر للاعتراف بحدود معرفتها، بدلًا من دفعها إلى تقديم إجابة “واثقة” حتى عندما تكون غير صحيحة.


هل GPT-5 أكثر أمانًا للمستخدمين؟

من الناحية العملية، يعتبر GPT-5 أكثر أمانًا من حيث الاعتماد على النتائج، لأنه يتردد أكثر في إعطاء إجابة عند غياب المعرفة، بدلاً من تقديم معلومة خاطئة.

لكن على الرغم من هذا التحسن، تحذر أوبن إيه آي المستخدمين من الاعتماد المطلق على النموذج، مؤكدة أن:

  • التحقق البشري لا يزال ضروريًا.
  • استخدام GPT-5 يجب أن يكون أداة مساعدة، وليس مصدرًا نهائيًا للحقائق.

انعكاسات الهلوسة على الصناعات المختلفة

  1. التعليم
    • الطلاب الذين يستخدمون الذكاء الاصطناعي كمرجع قد يتعرضون لتلقي معلومات مضللة، ما لم يتم تدريبهم على التحقق من المصادر.
  2. الطب
    • الأخطاء هنا قد تكون كارثية إذا استُخدمت النماذج لتقديم استشارات صحية دون إشراف طبي.
  3. الإعلام والصحافة
    • استخدام النماذج في تحرير الأخبار أو كتابة المقالات قد يؤدي إلى نشر معلومات غير دقيقة على نطاق واسع.
  4. الأعمال والقانون
    • الاعتماد على إجابات غير دقيقة في العقود أو الاستشارات القانونية قد يترتب عليه مخاطر مالية وقانونية كبيرة.

كيف يمكن معالجة الظاهرة مستقبلًا؟

  • تحسين التدريب: عبر إدخال بيانات أكثر دقة وتخصصًا بدلًا من الاعتماد فقط على النصوص العامة من الإنترنت.
  • تعزيز الشفافية: أن يتضمن النموذج آليات توضح للمستخدم متى تكون المعلومة “موثقة” ومتى تكون “تقديرية”.
  • مؤشرات جديدة للتقييم: تقيس ليس فقط نسبة الإجابات الصحيحة، بل أيضًا معدل الأخطاء المضللة.
  • دمج الذكاء الاصطناعي مع أدوات تحقق مستقلة: بحيث تُراجع الإجابات قبل تقديمها للمستخدم النهائي.

الخلاصة

إعلان أوبن إيه آي الأخير حول استمرار ظاهرة الهلوسة في GPT-5 يؤكد أن الطريق نحو ذكاء اصطناعي “معصوم من الخطأ” لا يزال طويلًا. صحيح أن النموذج الجديد حقق تقدمًا مهمًا في تقليل التخمين والاعتماد على المعرفة الموثوقة، لكنه لم يتخلص تمامًا من هذه المعضلة.

المعادلة الحقيقية التي تواجهها الشركات المطورة لا تقتصر على رفع نسبة الإجابات الصحيحة، بل تكمن في كيفية تقليل الأخطاء الخطيرة التي تُقدَّم بثقة، لأنها الأكثر تأثيرًا على ثقة المستخدمين وعلى مستقبل الاعتماد على الذكاء الاصطناعي في المجالات الحساسة.

ومع ذلك، يبقى GPT-5 خطوة متقدمة نحو بناء أنظمة أكثر موثوقية، وجرس إنذار في الوقت نفسه بضرورة إعادة النظر في كيفية تصميم وتقييم النماذج، حتى يكون الذكاء الاصطناعي أداة تمكّن البشرية بدلًا من أن تضللها.


تصريحات متناقضة.. جوجل تعترف سِرًا بتراجع حركة زوار الإنترنت المفتوح

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *