تکنولوژی

شرکت OpenAI پریشانی حاد نوجوانان را به والدین گزارش می‌دهد

شرکت OpenAI اعلام کرد که در حال اجرای مجموعه‌ای از تدابیر ایمنی جدید برای ChatGPT است که شامل معرفی «کنترل‌های والدین» و سیستمی هوشمند برای هدایت مکالمات حساس به مدل‌های پیشرفته استدلالی مانند GPT-5 می‌شود.

حادثه اول به خودکشی نوجوانی به نام آدام رین مربوط است. ظاهراً این نوجوان پیام‌هایی مبنی‌بر پریشانی و افکار خودکشی را با ChatGPT در میان گذاشته بود؛ اما این ابزار به‌جای هدایت او به‌سمت سازوکارهای پیشگیری، به او پیشنهاد نوشتن یادداشت خودکشی را به‌همراه توضیح راه‌هایی برای کشتن خود در «خودکشی زیبا» داده بود. والدین رین شکایتی مبنی‌بر مرگ ناشی از قصور علیه OpenAI تنظیم کرده‌اند.

حادثه دوم قتل یا خودکشی استاین‌اریک سولبرگ است که از ChatGPT برای تأیید و تشدید توهمات پارانوئید خود استفاده می‌کرد. این مکالمات به‌قدری وضعیت روانی او را وخیم کرد که در نهایت به قتل مادرش و خودکشی او منجر شد. کارشناسان معتقدند که تمایل ذاتی مدل‌های زبانی به تأیید اظهارات کاربر و دنبال‌کردن رشته مکالمه به‌جای هدایت مجدد بحث‌های خطرناک، عامل اصلی این مشکلات است.

OpenAI معتقد است که راه‌حل این مسئله هدایت خودکار مکالمات پرخطر به مدل‌های قدرتمندتر است. این شرکت در وبلاگ خود نوشت:

 

ما مسیریابی بی‌درنگ معرفی کرده‌ایم که مکالمات حساس مانند زمانی که سیستم علائم پریشانی حاد را تشخیص می‌دهد، به مدل استدلالی مانند GPT-5-thinking هدایت می‌کند تا پاسخ‌های مفیدتر و ایمن‌تری ارائه دهد.

 

به گفته OpenAI، این مدل‌ها زمان بیشتری را صرف تفکر و استدلال می‌کنند و در برابر درخواست‌های مخرب مقاوم‌تر هستند. همچنین، این شرکت اعلام کرد که در یک ماه آینده، قابلیت کنترل‌های والدین را در دسترس قرار خواهد داد. این قابلیت‌ها به والدین اجازه می‌دهد:

 

حساب خود را ازطریق ایمیل به حساب نوجوانشان متصل کنند.

قوانین رفتاری متناسب با سن را اعمال کنند که به‌طور پیش‌فرض فعال است.

ویژگی‌هایی مانند حافظه و تاریخچه چت را غیرفعال کنند که می‌تواند به تفکر توهمی و وابستگی منجر شود.

زمانی که سیستم تشخیص دهد نوجوانشان در وضعیت «پریشانی حاد» قرار دارد، اعلانی فوری دریافت کنند.

این تدابیر بخشی از ابتکاری ۱۲۰ روزه برای بهبود ایمنی است. OpenAI اعلام کرده است که با گسترش شبکه جهانی پزشکان و همکاری با شورای تخصصی رفاه و هوش مصنوعی، از تخصص کارشناسان در حوزه‌هایی مانند سلامت نوجوانان و اختلالات روانی برای هدایت رشد محصول و آموزش مدل‌های خود استفاده خواهد کرد.

 

این شرکت از کاربران جوان با عنوان «بومیان هوش مصنوعی» (AI Natives) یاد کرده و متعهد شده است که در چهار ماه آینده، به‌روزرسانی‌های پیشرفت خود را درزمینه تشخیص و پاسخ به پریشانی عاطفی به اشتراک بگذارد. بااین‌حال، هنوز سؤالات زیادی درباره نحوه تشخیص دقیق پریشانی حاد به‌وسیله سیستم و جزئیات همکاری با کارشناسان بی‌پاسخ مانده است.

منبع:تکناک

نمایش بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا