مبادرة دولية لضبط استخدام روبوتات الدردشة الصحية


الرياض- العربية.نت 02/03/2026 12:55 PM

مع تزايد لجوء الجمهور إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي لطرح أسئلة صحية، أعلن باحثون من جامعة برمنغهام عن إطلاق أول مبادرة عالمية لوضع دليل إرشادي شامل يضمن الاستخدام الآمن لهذه الأدوات.

وتهدف المبادرة، التي أُعلن عنها في مجلة Nature Health، إلى إعداد "دليل مستخدمي روبوتات الدردشة الصحية" ليكون مرجعًا عمليًا يساعد الأفراد على تقليل المخاطر وتعظيم الفوائد عند استخدام نماذج لغوية كبيرة مثل ChatGPT وGemini وCopilot وغيرها.

ويشير الباحثون إلى أن استخدام روبوتات الدردشة العامة في تفسير الأعراض أو تبسيط المصطلحات الطبية أصبح واقعًا يوميًا لملايين الأشخاص، إلا أن هذه الأدوات تعمل حاليًا في "فراغ تنظيمي"، ما يترك المستخدم وحده في التمييز بين المعلومات العلمية الموثوقة والمحتوى غير الدقيق أو المُختلق.

وحدد فريق البحث، الذي يضم أكاديميين وأطباء وخبراء تقنيين من أكثر من 20 مؤسسة دولية، مجموعة من المخاطر الرئيسية، أبرزها:

- الأخطاء الطبية المحتملة: عبر تقديم معلومات تبدو مقنعة لكنها غير صحيحة.

- تأثير غرفة الصدى: ميل بعض الأنظمة إلى مجاراة المستخدم بدل تصحيح مفاهيمه الخاطئة.

- التحيز الخوارزمي: احتمال تعزيز تفاوتات صحية قائمة.

- خصوصية البيانات: مخاطر تتعلق بحماية المعلومات الصحية الحساسة.

روبوتات الدردشة الطبية (آيستوك)
روبوتات الدردشة الطبية (آيستوك)

إشراك الجمهور في صياغة الدليل

وتتميز المبادرة بإشراك ممثلين عن الجمهور في تصميم الدليل، لضمان أن يكون مناسبًا لمختلف الأعمار ومستويات الثقافة الصحية. ويؤكد القائمون على المشروع أن الهدف ليس الحد من الابتكار، بل تمكين المستخدمين من أدوات فهم وتقييم أفضل عند اللجوء إلى هذه المنصات.

ومن المتوقع أن يقدم الدليل إرشادات عملية حول كيفية طرح الأسئلة بطريقة واضحة، والتحقق من المعلومات الطبية، ومعرفة متى يجب استشارة الطبيب مباشرة، إضافة إلى حماية البيانات الشخصية.

والخلاصة أنه مع تحول روبوتات الدردشة إلى "أول رأي طبي" يلجأ إليه كثيرون، تبرز الحاجة إلى خريطة واضحة للاستخدام الآمن. والدليل الجديد يسعى إلى تحقيق توازن بين الاستفادة من الذكاء الاصطناعي وحماية المستخدم من مخاطر المعلومات غير الدقيقة أو إساءة الاستخدام.


المصدر : alarabiya.net تاريخ النشر : 02/03/2026 12:55 PM

Min-Alakher.com ©2026®