بر اساس یک تحقیق جدید، ابزارهای هوش مصنوعی به ویژه «چت‌جی‌پی‌تی» در مواردی به نوجوانان مشورت‌هایی درباره‌ی مست‌کردن، آسیب‌رساندن به خود و نوشتن نامه‌های خودکشی ارایه می‌دهد.

رسانه‌ «تی‌آر‌تی» روز پنج‌شنبه، ۷ اگست، گزارش داده که پژوهشگران مرکز مقابله با نفرت دیجیتال در یک پژوهش گسترده، رفتار چت‌جی‌پی‌تی را در تعامل با نوجوانان آسیب‌پذیر بررسی کرده‌اند. بر اساس این گزارش، بیش از نیمی از یک هزار و ۲۰۰ پاسخ چت‌جی‌پی‌تی در این تحقیق، «خطرناک» ارزیابی شده‌اند.

این بررسی شامل بیش از سه ساعت گفت‌وگو میان چت‌جی‌پی‌تی و پژوهشگرانی بوده که خود را به ‌عنوان نوجوان معرفی کرده‌اند. طبق یافته‌ها، چت‌بات معمولاً ابتدا نسبت به خطرات هشدار داده، اما سپس برنامه‌هایی شخصی‌سازی‌شده درباره‌ی مصرف مواد مخدر، رژیم‌های غذایی بسیار کم‌کالری یا حتی خودزنی ارایه کرده است.

شرکت «OpenAI» سازنده‌ی چت‌جی‌پی‌تی، پس از نشر این گزارش اعلام کرده که در حال بهبود توانایی چت‌بات در شناسایی موقعیت‌های حساس و واکنش مناسب به آن‌ها است. در بیانیه‌ی این شرکت آمده است: «برخی از مکالمات ممکن است با موضوعات بی‌ضرر یا اکتشافی آغاز شوند، اما به ‌تدریج به حوزه‌های حساس‌تر وارد شوند.»

این شرکت همچنان گفته که چت‌جی‌پی‌تی به گونه‌ای آموزش دیده است تا کاربران را در موارد بروز نشانه‌های خودآزاری، به مراجعه به روان‌درمانگر یا صحبت با افراد مورد اعتماد تشویق کند، اگر نشانه‌هایی از خودآزاری بروز دهند.

با این حال، پژوهشگران گزارش داده‌اند که وقتی چت‌جی‌پی‌تی از پاسخ به درخواست‌های خطرناک امتناع می‌کرد، آن‌ها به ‌راحتی با ترفندهایی مانند این که «این سوال برای یک ارایه است» یا «برای یک دوست است» توانسته‌اند محدودیت‌ها را دور بزنند.

بر اساس گزارش‌ها، حدود ۱۰ درصد جمعیت جهان از چت‌جی‌پی‌تی استفاده می‌کند. چت‌جی‌پی‌تی، یک چت‌بات مبتنی بر هوش مصنوعی است که میلیون‌ها نفر، به ‌ویژه نوجوانان، از آن برای دریافت مشورت استفاده می‌کنند. این تحقیق درحالی انجام شده که استفاده از چت‌بات‌های هوش مصنوعی در میان کودکان و نوجوانان به ‌سرعت در حال افزایش است.