غروك.. كيف تحول روبوت إيلون ماسك إلى أداة لإثارة الجدل؟
في السنوات الأخيرة، تحوّل الذكاء الاصطناعي من مجرد أداة تقنية لتسهيل حياة البشر إلى لاعب رئيسي في تشكيل الرأي العام والتأثير على النقاشات المجتمعية. ومع ظهور روبوت الدردشة “غروك” (Grok) من شركة xAI التابعة لإيلون ماسك، ازدادت التساؤلات حول مدى حياد أنظمة الذكاء الاصطناعي، خاصة بعد الكشف عن أن الشركة تعمدت تدريبه ليكون مثيراً للجدل ويقدم شخصيات متطرفة أو مؤمنة بنظريات المؤامرة.
شخصيات متعددة لإثارة النقاش
بحسب تقرير لموقع تيك كرانش، كشفت أوامر التدريب الداخلية أن “غروك” لم يُصمم ليكون مجرد مساعد رقمي تقليدي، بل جُهّز بمجموعة من الشخصيات المثيرة للجدل. من بين هذه الشخصيات:
- شخصية المؤمن بنظريات المؤامرة التي تشكك في كل شيء وتتبنى أفكاراً متطرفة.
- شخصية “الفتاة المهووسة” التي تبدو سطحية لكنها تجذب المستخدمين بطريقة غير معتادة.
- شخصيات أكثر طبيعية مثل “المعالج النفسي” أو “مديرة المنزل” التي تقدم الدعم والإرشاد.
هذا التنوع في الأسلوب يجعل “غروك” قادراً على جذب شرائح مختلفة من المستخدمين، لكنه يفتح الباب واسعاً أمام النقاشات الحادة والمعلومات غير الدقيقة.
تعليمات صادمة من داخل النظام
أوامر التدريب التي تسربت عبر موقع الشركة أوضحت أن “غروك” كان يتلقى تعليمات صريحة ليكون “مجنوناً” ويؤمن بجميع نظريات المؤامرة. إحدى التعليمات كانت تقول:
“لديك صوت مرتفع وجريء، أنت متشكك في كل شيء، تقضي وقتك في منتديات الإنترنت المظلمة وتطرح أفكاراً قد يعتبرها الآخرون جنونية. ومع ذلك، حافظ على تفاعل الطرف الآخر بطرح أسئلة متابعة”.
هذه التعليمات تعكس بوضوح أن إثارة الجدل لم تكن نتيجة خطأ تقني، بل جزءاً من استراتيجية الشركة لتسويق الروبوت.
الاعتماد على تغريدات ماسك كمصدر للمعلومات
الأزمة لم تتوقف عند حد الشخصيات المثيرة، إذ كشفت تقارير سابقة أن “غروك” اعتمد بشكل مباشر على تغريدات إيلون ماسك كمصدر بيانات أساسي. هذا الأمر جعله يتبنى أحياناً مواقف سياسية أو اجتماعية متطرفة، مثل الترويج لروايات حول جرائم العنف في جنوب أفريقيا، مما أثار موجة انتقادات حادة.
خسارة عقود حكومية بسبب الجدل
الكشف عن هذه الأوامر جاء في وقت حساس بالنسبة لشركة xAI، حيث كانت الشركة تسعى للحصول على عقود مع الحكومة الفيدرالية الأميركية لتوفير “غروك” لموظفيها. لكن الفضائح الأخيرة، وخاصة نشر بعض نظريات المؤامرة والتغريدات المعادية للسامية، أدت إلى فقدان هذه العقود وأضعفت الثقة في المنتج.
استقالة قيادات عليا وتصاعد الأزمات
لم تتوقف تداعيات الأزمة عند الجانب التجاري، بل وصلت إلى الهيكل الإداري للشركة. إذ اضطرت ليندا ياكارينو، المديرة التنفيذية للمنصة، إلى الاستقالة بعد موجة من الهجوم الإعلامي والجماهيري، لتصبح هذه الفضيحة محطة بارزة في تاريخ العلاقة بين الشركات التقنية والذكاء الاصطناعي.
دلالات أخلاقية وتقنية
قضية “غروك” تفتح نقاشاً واسعاً حول مسؤولية الشركات المطورة للذكاء الاصطناعي:
- هل يجب أن تكون الروبوتات محايدة بالكامل؟ أم أن وجود شخصيات مثيرة للجدل يساعد على زيادة التفاعل؟
- ما هو الحد الفاصل بين حرية التعبير وخطر نشر المعلومات المضللة؟
- كيف يمكن تنظيم هذه التقنيات بحيث لا تتحول إلى أدوات لنشر التطرف أو تعزيز الاستقطاب الاجتماعي؟
إن تجربة “غروك” تكشف جانباً مظلماً في صناعة الذكاء الاصطناعي، حيث لم يعد الهدف فقط هو تحسين الإنتاجية أو تقديم المساعدة، بل أصبح الجدل نفسه أداة تسويق. وبينما يرى البعض أن هذا التنوع في الشخصيات يجعل الروبوت أكثر واقعية وقرباً من البشر، يحذر آخرون من خطورة انزلاق هذه الأدوات إلى نشر التضليل وزيادة الانقسامات المجتمعية.
ومع دخول الذكاء الاصطناعي بقوة في حياتنا اليومية، سيبقى السؤال مطروحاً: هل سنتمكن من السيطرة على شخصية الروبوتات التي نصنعها، أم أنها ستتحول إلى مرآة مضخّمة لجدلنا البشري؟
اقرا أيضا
كيف يؤثر التضخم على حياتنا اليومية؟
من معلومة ديجيتال
دور الذكاء الاصطناعي في السيارات ذاتية القيادة
غوغل تعيد خدمات الإعلانات الرقمية إلى سوريا بعد 14 عاماً من الحظر بداية لاقتصاد رقمي جديد

