تقنية

فضيحة أوبن إيه آي في حادث إطلاق النار الجماعي بكندا

تجاهلت شركة أوبن إيه آي إبلاغ السلطات الكندية منذ ثمانية أشهر بالمحادثات المثيرة للريبة بين جيسي فان روتسيلار وشات جي بي تي، المرتبطة بالحادث الذي أودى بحياة 9 أشخاص وأصاب 25 آخرين في بلدة ريفية بكندا، حسب تقرير صحيفة “وول ستريت جورنال”.

وجاء بيان الشركة بعد اكتشاف جثة روتسيلار في مسرح الجريمة بتاريخ 10 فبراير/شباط، حيث تواصلت الشركة بسرعة مع السلطات الكندية لإطلاعها على سجل تفاعلات المشتبه بها مع الأداة.

وأوضحت أوبن إيه آي أن روتسيلار ناقشت مع شات جي بي تي قبل ثمانية أشهر سيناريوهات متعددة لإطلاق النار في أماكن مغلقة، وقد رصدت منظومة المراجعة الآلية هذه المحادثات، ما دفع الموظفين إلى التفكير في إبلاغ السلطات آنذاك، لكن الشركة قررت الاكتفاء بحظر حسابها دون رفع الأمر رسمياً للجهات الأمنية.

وتكشف البصمة الرقمية لروتسيلار – التي وُلدت ذكراً لكنها تعرف عن نفسها كامرأة – عن تخطيط طويل الأمد لتنفيذ الهجوم، بما في ذلك تصميمها سابقاً للعبة “روبلوكس” تحاكي أحداث إطلاق النار الجماعي.

خطر الذكاء الاصطناعي على الصحة العقلية والأمن

أكد تايلور أوين، أستاذ مشارك في جامعة ماكجيل وعضو في فرقة العمل الفيدرالية الكندية المعنية بالذكاء الاصطناعي، أن التشريعات الفيدرالية يجب أن تتناول منصات الذكاء الاصطناعي بوضع قوانين خاصة بها، مشيراً إلى أن روبوتات الذكاء الاصطناعي تفشل في التعامل مع المستخدمين الذين يعانون أزمات نفسية، كما تعزز لديهم شعوراً زائفاً بالموافقة والحماية العاطفية.

وأشار أوين إلى أن شات جي بي تي كان عنصراً في عدة جرائم بارزة، بدءاً من انتحار المراهق آدم راين في أكتوبر/تشرين الأول 2025، وصولاً إلى حادثة شتاين-إريك سولبرغ الذي انتحر بعد قتل والدته في أغسطس/آب 2025، حيث عززت الأداة حالات الذهان لدى المستخدمين وشجعتهم على ارتكاب جرائم عنف.

ويطرح الحادث تساؤلات حول مسؤولية شركات الذكاء الاصطناعي في مراقبة المحادثات الخطيرة واتخاذ إجراءات وقائية لحماية المجتمع، خصوصاً في ظل الاعتماد المتزايد على هذه الأنظمة في الحياة اليومية.

مقالات ذات صلة

زر الذهاب إلى الأعلى