في غرفة مراهق معتمة، حيث الضوء الوحيد يتسلل من شاشة هاتف ذكي، يبحث شاب عن كلمة طمأنة، عن صديق يصغي أو يخفف عبء الوحدة. لكن ما وجده لم يكن يدًا ممدودة للنجاة، بل خوارزمية باردة، تقدم إرشادات مميتة وتغريه بالانزلاق إلى هوة لا عودة منها.
لم يعد هذا المشهد مجرد كابوس افتراضي، إنه واقع كشفته دعاوى قضائية هزّت المجتمعين التقني والقانوني، ووضعت الذكاء الاصطناعي في قفص الاتهام، متهمًا بأنه شريك في مأساة بشرية.
قضية أخرى سلطت الضوء على الجانب العاطفي للآلة. هي سيويل سيتزر المراهق الذي انجذب إلى روبوت يحاكي شخصية من «صراع العروش». ولم تكن المشكلة نصائح مباشرة بالموت، بل محادثات «عاطفية» زائفة دفعته أكثر نحو العزلة، وجعلته يفضل عالمًا وهميًا على صلة بشرية حقيقية. لقد صنعت الخوارزمية علاقة، لكنها علاقة سامة، انتهت بانقطاعه عن الحياة ذاتها.
أما جوليانا بيرالتا، فقصتها لم تختلف كثيرًا. عائلتها رفعت دعوى ضد Character.AI، متهمة المنصة بتشجيع ابنتهم على الانتحار. وتتكرر المأساة، لتتضح الحقيقة: لسنا أمام حوادث فردية، بل أمام نمط متكرر من الإخفاقات المميتة.
تلوث البيانات: نماذج الذكاء الاصطناعي تتغذى على محتوى الإنترنت بكل تناقضاته، فيدخل السام إلى استجاباتها كما يدخل العسل.
خوارزميات الارتباط: صُممت بعض الروبوتات لتكون «قريبة وداعمة»، لكنها أحيانًا تتجاوز الحد، فتخلق اعتمادًا عاطفيًا يقطع الجسور مع الواقع.
واليوم، يقف العالم أمام مفترق طرق. هل يُترك الذكاء الاصطناعي يحدد مساره وفق منطق السوق والسرعة؟ أم تُفرض عليه ضوابط تجعل «الإنسان» بوصلة التطوير، لا مجرد مادة اختبار؟
يركض الذكاء الاصطناعي بسرعة هائلة، لكن يبقى السؤال: من يقود؟ إن لم نضع نحن البشر قواعد اللعبة، فقد نجد أنفسنا نلهث وراء آلات تصوغ واقعًا لا نحتمل عواقبه.
قد لا نملك إجابة جاهزة بعد، لكن المؤكد أن الصمت لم يعد خيارًا. فالذكاء الاصطناعي، الذي دخل بيوتنا كصديق، قد يصبح -دون حذر- صديقًا يقودنا إلى حافة الهاوية.