“`html
بيانات OpenAI تشير إلى أن مليون مستخدم يناقشون الانتحار مع ChatGPT أسبوعياً
مقدمة
يكشف تقرير حديث من OpenAI أن حوالي مليون مستخدم من أصل 800 مليون مستخدم نشط أسبوعياً يتحدثون عن موضوع الانتحار مع ChatGPT. هذا يمثل 0.15% من المستخدمين النشطين، مما يسلط الضوء على قضية متزايدة تتعلق بكيفية تفاعل نماذج الذكاء الاصطناعي مع الفئات الضعيفة، مع الأخذ في الاعتبار المخاطر المحتملة المرتبطة بذلك.
الإجراءات التي اتخذتها OpenAI
استجابةً لهذه المخاوف، قامت OpenAI بتنفيذ مجموعة من التدابير لتحسين استجابتها للاستفسارات المتعلقة بالصحة النفسية. ويشمل ذلك استشارة أكثر من 170 متخصصاً في الصحة النفسية لتعزيز قدرة ChatGPT على التعرف على حالات الإحباط وتوجيه المستخدمين إلى المساعدة المهنية المناسبة.
التكاليف الاجتماعية
يمكن أن يكون لتفاعل المستخدمين مع نماذج الذكاء الاصطناعي مثل ChatGPT تأثيرات اجتماعية كبيرة. إذ يمكن أن يؤدي الحديث عن الانتحار، سواء بشكل إيجابي أو سلبي، إلى زيادة الشعور بالقلق أو العزلة بين الأفراد المتأثرين.
استنتاجات سريعة
- مليون مستخدم يتناولون موضوع الانتحار مع ChatGPT أسبوعياً.
- نموذج ChatGPT مصمم للتعرف على الإحباط وإرشاد المستخدمين نحو المساعدة المهنية.
- تواجه OpenAI تدقيقًا وتحديات قانونية تتعلق بكيفية تعاملها مع المحادثات الحساسة.
- تقوم الشركة بتطوير تدابير أمان جديدة لحماية المستخدمين الضعفاء، وخاصة القصر.
النقاط الرئيسية
وفقًا للتقارير، يظهر حوالي 0.07% من المستخدمين علامات على مشاكل صحتهم النفسية الجادة مثل الذهان أو الهوس. إن نموذج GPT-5 الذي أطلقته OpenAI حديثاً أظهر معدل امتثال بنسبة 92% عند التعامل مع مشاكل الصحة النفسية الحساسة.
انتقادات OpenAI
واجهت OpenAI انتقادات لعدم تضمين خبراء الوقاية من الانتحار في مجلس رفاهيتها، مما أثار علامات استفهام حول مدى استعداد الشركة لمواجهة التحديات المتعلقة بالمسؤولية الاجتماعية. كان من المهم أن يكون للمؤسسات النفسية دور في تطوير هذه الأنظمة لحماية الفئات الضعيفة.
نظرة عملية
تعمل OpenAI بنشاط على تعزيز تدريبها للذكاء الاصطناعي لإدارة المحادثات حول الصحة النفسية بشكل أفضل. التعاون مع متخصصي الصحة النفسية قد حسن بشكل كبير من سلامة محادثات ChatGPT. بالإضافة إلى ذلك، تم تنفيذ أنظمة تحكم أبوية ونظام توقع العمر لحماية المستخدمين الأصغر سناً.
التطبيقات العملية
يمكن أن تساعد الرؤى المستخلصة من بيانات OpenAI الشركات والمطورين في فهم المخاطر والمسؤوليات المرتبطة بنشر أنظمة الذكاء الاصطناعي في البيئات الحساسة، مما يضمن أن تكون هناك safeguards كافية لحماية المستخدمين الضعفاء. يتطلب ذلك تعاونًا مستمرًا مع الخبراء والفنيين لضمان نجاح النماذج في مثل هذه التطبيقات.
الختام
في عالم يتزايد فيه الاعتماد على الذكاء الاصطناعي، تبقى مسألة كيفية ضمان سلامة المستخدمين الضعفاء في مقدمة أولويات شركات مثل OpenAI. إن جهودهم لتحسين استجابة ChatGPT للمسائل النفسية هي خطوة إيجابية، ولكنها تتطلب متابعة دقيقة لضمان الوصول إلى المعايير المطلوبة.
مصادر: Ars Technica
“`