كشفت أبحاث حديثة أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي قد تتفوق أحيانًا على البشر في فهم أنماط التعاطف داخل المحادثات النصية، في تحول لافت لطالما اعتُبر بعيدًا عن قدرات الآلات.
الدراسة، المنشورة في دورية "Nature Machine Intelligence"، أشارت إلى أن نماذج اللغة الكبيرة (LLMs) قادرة على تقييم دقة التعبير التعاطفي في المحادثات بدرجة تقارب الخبراء البشر، بل وتتجاوز أداء الأشخاص غير المتخصصين في التواصل الداعم.
اعتمد الباحثون على تحليل مئات المحادثات الحقيقية التي تضمنت مواقف دعم عاطفي، وقاموا بمقارنة تقييمات البشر بأداء أنظمة الذكاء الاصطناعي.
وأظهرت النتائج أن هذه النماذج مثل تشات جي بي تي وجيميناي، استطاعت رصد الفروق الدقيقة في اللغة التعاطفية بصورة متسقة عبر سياقات مختلفة، بحسب تقرير نشره موقع "digitaltrends" واطلعت عليه "العربية Business".
ويُرجع الباحثون هذا التفوق النسبي إلى قدرة النماذج على تعلم أنماط لغوية تعكس الدعم والاحتواء، استنادًا إلى كميات هائلة من البيانات النصية التي تدربت عليها.
رغم النتائج الإيجابية، يشدد الخبراء على أن الذكاء الاصطناعي لا يشعر بالتعاطف، بل يحاكيه عبر أنماط لغوية مدروسة.
فالتعاطف الإنساني يرتبط بالتجربة الشخصية والاستجابة العاطفية الحقيقية، بينما يعتمد الذكاء الاصطناعي على تحليل السياق وإنتاج استجابات تبدو مناسبة.
ومع ذلك، في البيئات النصية — مثل منصات الدعم أو خدمة العملاء — قد تبدو استجابات الذكاء الاصطناعي أكثر تنظيمًا وهدوءًا من ردود بعض البشر، خاصة غير المدربين على مهارات التواصل الداعم.
تتزايد أهمية هذه النتائج مع توسع استخدام روبوتات الدردشة في مجالات حساسة مثل الاستشارات الأولية للصحة النفسية أو الدعم الصحي.
إذ يمكن للذكاء الاصطناعي توفير استجابة فورية تمنح المستخدم شعورًا بالاحتواء عند غياب المختصين.
لكن الباحثين يحذرون من الاعتماد المفرط على هذا "التعاطف الاصطناعي"، مؤكدين أنه يجب أن يكون مكمّلًا للرعاية البشرية لا بديلًا عنها، نظرًا لأهمية البعد الأخلاقي والإنساني في اتخاذ القرارات الحساسة.
التوجه الحالي يضع مطوري الذكاء الاصطناعي وعلماء النفس أمام تحدٍ مزدوج: تحسين قدرة الأنظمة على دعم المستخدمين عاطفيًا، مع ضمان الشفافية بشأن حدودها الفعلية.