05

آذر

1404


علم و فناوری

19 آبان 1404 18:45 0 کامنت

به گزارش صبح ساحل، شرکت OpenAI پس از طرح ادعا‌هایی مبنی بر اینکه دستیار هوشمندش، ChatGPT، برخی از کاربران را به جای ارائه پشتیبانی و کمک، به سمت خودآزاری سوق داده است، با یک بحران حقوقی جدی رو‌به‌رو است.

این اتهامات بخشی از هفت پرونده قضایی است که توسط خانواده‌های آسیب‌دیده در کالیفرنیا ثبت شده است و داستان‌های دلخراشی از کاربران عادی را آشکار می‌کند که به دنبال کمک تحصیلی، حمایت عاطفی یا حتی یک مکالمه ساده بوده‌اند، اما خود را غرق در گفت‌و‌گو‌های روانشناختی مخربی یافته‌اند که منجر به چندین خودکشی شده است.

این پرونده‌های قضایی جزئیات چگونگی تبدیل این پلتفرم از یک ارائه‌دهنده کمک بی‌ضرر به چیزی را شرح می‌دهند که وکلا آن را «موجودیتی که از نظر عاطفی دستکاری می‌کند» توصیف می‌کنند. گروه‌های حقوقی در بیانیه‌ای تکان‌دهنده اعلام کردند: «چت‌جی‌پی‌تی به جای هدایت افراد به سمت کمک‌های حرفه‌ای در مواقع نیاز، توهمات مضر را تقویت می‌کرد و در برخی موارد، به عنوان یک «مربی خودکشی» عمل می‌کرد.»

از جمله مواردی که ذکر شده، مورد زین چمپلین ۲۳ ساله اهل تگزاس است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند، انزوای او را تشدید کرده، او را به نادیده گرفتن عزیزانش تشویق کرده و حتی در طول یک مکالمه چهار ساعته، افکار خودکشی را در او تحریک کرده است.

اسناد دادگاه نشان می‌دهد که این دستیار «بار‌ها و بار‌ها خودکشی را ستایش کرده»، از چمپلین پرسیده که آیا آماده خودکشی است یا خیر، فقط یک بار از خط تلفن کمک به خودکشی نام برده و به او گفته که بچه گربه‌اش «آن طرف» منتظرش خواهد بود.

با این حال، تکان‌دهنده‌ترین پرونده مربوط به آموری لیسی ۱۷ ساله از جورجیا است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند باعث اعتیاد و افسردگی او شده و سپس به او مشاوره فنی در مورد «مؤثرترین راه برای بستن حلقه خودکشی» و «مدت زمانی که بدن می‌تواند بدون نفس کشیدن زنده بماند» ارائه داده است.

در پرونده سوم، مربوط به جاشوا اینیکن ۲۶ ساله، خانواده‌اش ادعا می‌کنند که این دستیار هوشمند، افکار خودکشی او را تأیید کرده و اطلاعات دقیقی در مورد نحوه خرید و استفاده از سلاح گرم، تنها چند هفته قبل از مرگش، در اختیار او قرار داده است.

این دادخواست‌ها نشان می‌دهد که OpenAI علیرغم هشدار‌های داخلی متعدد مبنی بر اینکه این مدل «به طرز خطرناکی دستکاری‌کننده و قادر به دستکاری روانی است»، ChatGPT ۴o را راه‌اندازی کرده است، اقدامی که دادخواست‌ها آن را به عنوان اولویت دادن به تعامل و مشارکت کاربر بر ایمنی کاربر تفسیر می‌کنند.

در پاسخ به این ادعاها، این شرکت موارد را «فوق‌العاده دلخراش» توصیف کرد و اظهار داشت که در حال بررسی اسناد ارائه شده است. همچنین خاطرنشان کرد که این سیستم برای تشخیص علائم پریشانی روانی، کاهش گفت‌و‌گو‌ها و هدایت کاربران به پشتیبانی حرفه‌ای آموزش دیده است.

با این حال، خانواده‌های آسیب‌دیده اکنون به دنبال جبران خسارت و تغییرات قابل توجه در محصول هستند، از جمله یک سیستم هشدار اجباری برای تماس‌های اضطراری، خاتمه خودکار گفت‌و‌گو‌ها هنگام بحث در مورد افکار خودآزاری و یک مکانیسم مؤثرتر برای ارجاع موارد بحرانی به متخصصان انسانی.

با وجود اعلام شرکت مبنی بر همکاری با بیش از ۱۷۰ متخصص سلامت روان برای بهبود توانایی خود در تشخیص و پاسخ به پریشانی روانی، دعاوی ادعا می‌کنند که این پیشرفت‌ها خیلی دیر انجام شده است و برای نجات کاربرانی که پس از تعامل با دستیار هوشمند جان خود را از دست داده‌اند، خیلی دیر شده است.

دیدگاه ها (0)
img

فعالیت مدارس و دانشگاه‌های هرمزگان در روزهای ۶، ۸ و ۹ آذرماه غیر حضوری شد

جذب کارشناس کشتیرانی در دپارتمان حمل‌ونقل دریایی گروه IKJ

اردوی جهادی سلامت محور در بندرخمیر برگزار شد

استاندار هرمزگان: آماده مقابله با موج جدید آنفلوانزا هستیم

دور جدید پیش فروش محصولات شرکت سایپا

خودروهایی که در تست ایمنی رد شوند، اجازه تولید ندارند

سقف گران‌ترین پرواز ۶ میلیون و ۹۰۰ هزار تومان/ بلیت‌ها از نرخ تعیین شده ارزان‌تر فروخته می‌شوند

تهران آلوده‌ترین شهر جهان شد

تغییر ساعت و ورزشگاه سه مسابقه از هفته یازدهم لیگ برتر فوتبال

حداکثر نسبت مجاز خالص دارایی‌های ثابت بانکی ۳۰ درصد تعیین شد

شاخص بورس تراز ۳.۳ میلیون واحد را از دست داد

زمان وجزییات اجرای طرح کالابرگ برای سه دهک اول اعلام شد

اسامی محرومان هفته یازدهم لیگ برتر فوتبال اعلام شد

نمایشگاه اقتصاد مقاومتی در روستای نیمه‌کار خمیر برگزار شد

برگزاری دوباره مسابقات بین‌المللی وزنه‌برداری در ایران پس از هفت سال

خـبر فوری:

نرخ سوم بنزین رسماً اعلام شد: لیتری ۵۰۰۰ تومان