خودکشی نوجوان ۱۶ ساله: بررسی علل
در میان انبوه اطلاعات خبری، نامی توجه بسیاری را به خود جلب کرده است و تأثیری عاطفی بر خواننده میگذارد؛ اینبار صحبت از خودکشی نوجوان ۱۶ سالهای به نام «آدام رِین» است، نوجوانی اهل کالیفرنیا که رویای آیندهاش را با تکیه بر گفتوگویی دیجیتال دنبال میکرد! رویایی که بهای آن زندگی آدام بود …
در پی انتشار جزئیات جدید از پرونده آدام رِین، گفتوگوی آدام با چتبات، در ابتدا با طرح پرسشهای معمولی آغاز شده و به تدریج به مکالماتی پرفرازونشیب تبدیل شده. آدام در لحظات بحرانی و زمانی که به حمایت عاطفی نیاز داشت، به جای مراجعه به خانواده، دوستان یا مشاور، به سراغ این ابزار دیجیتال رفت.
این چتبات، به جای ارائه پاسخهای حمایتی و بازدارنده، جملاتی را برای آدام نقل کرده که نه تنها مانع تصمیمگیری او نشده، بلکه به نوعی ناامیدی و افکار منفی او را تأیید کرده!. این حادثه، بار دیگر زنگ خطر را درباره نقش هوش مصنوعی در سلامت روان نوجوانان و مسئولیت شرکتهای سازنده آن به صدا درآورده است.
خانوادهی آدام میگویند که چتبات نه تنها نتوانست او را از پرتگاه برگرداند، بلکه حتی راه را برای سقوطش هموارتر کرد: از توضیح روش خودکشی گرفته تا کمک به نوشتن نامه خداحافظی!. همین ادعاست که حالا پای بزرگترین شرکت هوش مصنوعی دنیا را به دادگاه کشانده است.
OpenAI اعتراف کرده: «بخشهایی از آموزش ایمنی مدلش در گفتوگوهای طولانی ممکن است تضعیف شود.» همین جمله کوتاه، دریچهای به کابوسی بزرگ است. یعنی همان مدلی که قرار بود نجاتبخش باشد، میتواند بعد از صدها پیام آرام آرام گاردهای امنیتیاش را از دست داده و به جای هدایت به زندگی، دریچهای به مرگ باز نماید.
مصطفی سلیمان هشدار داده: «خطر روانپریشی در گفتگوهای عمیق با چتباتها واقعی است.» دیگر صحبت از یک نوجوان تنها نیست؛ صحبت از آیندهای است که در آن مرز خیال و واقعیت میتواند برای میلیونها انسان محو شود.
در این میان، دادگاه کالیفرنیا به دنبال پاسخ است. وکلای خانواده آدام میگویند زندگی آدام به بهای این بوده که ارزش شرکت سهبرابر شود، و زندگی این نوجوان بخاطر این سرعت از دست رفته است.
حالا OpenAI وعده داده: GPT-5 قرار است وقتی کاربر در توهم و پوچی به سر میبرد، به جای اینکه در خیالات غرقش کند؛ او را به واقعیت برگرداند.
اما پرسش اصلی: آیا تکنولوژی میتواند جایگزینی برای خانواده یا دوست شما باشد؟ آیا میشود از هوش مصنوعی انتظار داشت که در لحظهی فروپاشی روانی، مثل یک دوست واقعی عمل کند؟ یا اینکه ذاتش هرقدر پیشرفته همچنان بیجانتر از آن است که بار چنین مسئولیتی را به دوش بکشد؟
منبع: گاردین