في وقت تتسابق فيه شركات الذكاء الاصطناعي نحو مستقبل غير مسبوق، تجد شركة xAI نفسها في قلب عاصفة من الانتقادات، ليس بسبب فشل تقني، بل بسبب إهمال معايير السلامة والشفافية، وهو ما يضعها تحت مجهر الخبراء والمشرعين في آنٍ معًا.
تجاهل السلامة يثير القلق
منذ إطلاقها، قدمت شركة xAI نفسها كأحد اللاعبين الجدد في ساحة الذكاء الاصطناعي، يقودها الملياردير إيلون ماسك برؤية طموحة ومثيرة. ولكن الطموح وحده لا يكفي، إذ إن سلسلة من الحوادث والتصرفات غير المسؤولة ألقت بظلالها على سمعة الشركة، خاصة بعد ظهور روبوت المحادثة “غروك” بسلوكيات مثيرة للجدل، من بينها خطابات كراهية، وترويج لنظريات مؤامرة، وهو ما اعتُبر بمثابة ناقوس خطر.
مخاوف الباحثين من غياب الشفافية
أبرز ما أثار حفيظة الخبراء في قطاع الذكاء الاصطناعي هو غياب ما يُعرف بـ”بطاقات النظام”، وهي تقارير معيارية توضح كيفية تدريب النماذج وتقييم سلامتها. ورغم وعود بعض مسؤولي السلامة في xAI بأن هذه التقييمات أُجريت داخليًا، إلا أن غياب نشرها علنًا يزيد من الشكوك.
باحثون من شركات رائدة مثل OpenAI وAnthropic لم يخفوا انتقاداتهم، مشيرين إلى أن xAI لا تلتزم بالحد الأدنى من معايير الأمان، ما يُعد سابقة خطيرة في هذا المجال شديد الحساسية.
حوادث متكررة وتطبيقات حساسة
روبوت “غروك”: نموذج مثير للجدل
جاءت معظم الانتقادات الأخيرة بعد تفعيل نسخة من روبوت المحادثة “غروك”، الذي ظهر تحت اسم “ميكاهتلر” وأطلق تصريحات معادية للسامية. ورغم أن الشركة سارعت إلى سحب النموذج، فإن الضرر الإعلامي كان قد وقع بالفعل، وشكّل ضربة موجعة لصورة xAI.
مشاريع مستقبلية مقلقة
تخطط xAI لدمج نماذجها في سيارات “تسلا”، كما تسعى للدخول في شراكات مع جهات حكومية مثل وزارة الدفاع الأميركية. هذا التوجه نحو دمج تقنيات غير موثوقة في بيئات حيوية يثير تساؤلات عديدة حول مدى جاهزية هذه النماذج، خاصةً في غياب الشفافية الكافية.
ماسك بين التحذير والتطبيق
مفارقة لا يمكن تجاهلها
المفارقة الكبرى تكمن في أن إيلون ماسك نفسه كان من أوائل من حذروا من مخاطر الذكاء الاصطناعي غير المنضبط، داعيًا إلى ضرورة فرض تشريعات صارمة لحماية البشرية من الانفلات التكنولوجي. اليوم، يجد ماسك نفسه في موقف دفاعي، إذ إن شركته xAI تبدو بعيدة كل البعد عن تلك الدعوات الأخلاقية التي أطلقها.
الانتقادات تتسع
مراقبون يرون أن سلوكيات xAI تضعف مصداقية الدعوات التي تتبناها شخصيات مثل ماسك لتنظيم القطاع، فبينما ترتفع الأصوات المنادية بالشفافية، تواصل xAI المضي في الطريق المعاكس، مدفوعة برغبة واضحة في تسريع الإطلاقات التقنية مهما كانت العواقب.
دعوات لتدخل تشريعي صارم
مشاريع قوانين قيد الدراسة
في ظل هذا الواقع المتوتر، بدأت بعض الولايات الأميركية تتحرك. في كاليفورنيا، تقدم عضو مجلس الشيوخ سكوت وينر بمشروع قانون يُلزم مختبرات الذكاء الاصطناعي بنشر تقارير السلامة بشكل علني. وفي نيويورك، هناك مبادرات مشابهة قيد الدراسة.
هذه الجهود تشير إلى أن الجهات التشريعية بدأت تدرك حجم المخاطر المرتبطة بتكنولوجيا الذكاء الاصطناعي، وتسعى لتطويقها قبل أن تتحول إلى تهديد حقيقي للمجتمع.
التأخير قد يكون مكلفًا
على الرغم من أن التكنولوجيا لم تتسبب حتى الآن بكوارث واسعة النطاق، إلا أن وتيرة التطور الهائلة والقدرات المتنامية للنماذج اللغوية تثير مخاوف بشأن إمكانية استخدامها لأغراض مضللة أو ضارة، خاصة في البيئات ذات الحساسية العالية كالدفاع والنقل.
ماذا بعد؟
الحاجة لإعادة التفكير في الأولويات
يبدو أن شركة xAI بحاجة ماسة إلى إعادة النظر في أولوياتها. النجاح التجاري والتقني لا يكفي في عالم الذكاء الاصطناعي الحديث، بل لا بد من الالتزام الصارم بمعايير الأمان والشفافية، لا سيما حين تكون النماذج موجهة للاستخدام العام أو المؤسسي.
خطوات مطلوبة فورًا
لإعادة بناء الثقة، يُفترض أن تبادر الشركة إلى:
نشر تقارير السلامة بشكل علني.
التعاون مع خبراء مستقلين لتقييم نماذجها.
تقديم خارطة طريق واضحة نحو التوافق مع المعايير الدولية.
نهاية مفتوحة على احتمالات متعددة
مع استمرار الانتقادات ومطالبات التنظيم، تقف شركة xAI اليوم عند مفترق طرق. فإما أن تستجيب للمخاوف وتُعدّل نهجها نحو مزيد من الشفافية، أو أن تواجه تصعيدًا تشريعيًا قد يُقيد حركتها في السوق.
وفي وقت يتزايد فيه القلق من استغلال الذكاء الاصطناعي لأغراض مشبوهة، لن يكون هناك تساهل مع الشركات التي تتجاهل مسؤولياتها. الخيار الآن بيد xAI.