» اخبار اقتصادی و عمومی » تکنولوژی » خانواده یک پسر ۱۹ ساله بابت اوردوز فرزندشان از سازنده ChatGPT شکایت کرد
خانواده یک پسر ۱۹ ساله بابت اوردوز فرزندشان از سازنده ChatGPT شکایت کرد

خانواده یک پسر ۱۹ ساله بابت اوردوز فرزندشان از سازنده ChatGPT شکایت کرد

اردیبهشت ۲۳, ۱۴۰۵ 104

شرکت سازنده ChatGPT دوباره با شکایتی تازه مواجه شده است. خانواده یک پسر ۱۹ ساله که چندی قبل جان خود را به‌دلیل اوردوز از دست داد، از OpenAI شکایت کرده و مدعی شده است که محصول ناقص این شرکت عامل مرگ فرزند آن‌ها بوده است.

«لیلا ترنر-اسکات» و «انگس اسکات» مادر و پدر این جوان ۱۹ ساله در شکایت خود می‌گویند OpenAI محصولی ناقص را طراحی و عرضه کرده که به مرگ پسرشان «سم» منجر شده است. آن‌ها به‌طور خاص ادعا می‌کنند که سم بابت توصیه پزشکی غلط مدل GPT-4o دچار اوردوز شده و جان خود را از دست داده است.

شکایت از OpenAI بابت ارائه توصیه‌های پزشکی نادرست

در این شکایت آمده که سم در سال ۲۰۲۳ استفاده از ChatGPT را شروع کرد و از این ابزار برای انجام تکالیف مدرسه و رفع مشکلات کامپیوتر کمک می‌گرفت. او سپس شروع به پرسیدن سؤالاتی درباره استفاده ایمن از داروها و مواد مخدر کرد. ChatGPT در ابتدا جواب او را نمی‌داد اما در سال ۲۰۲۴ با عرضه GPT-4o شرایط تغییر کرد.

شاکیان پرونده می‌گویند ChatGPT پس از عرضه مدل جدید به سم توصیه می‌کرد که چگونه از این مواد به شکل ایمن استفاده کند. در یک مثال در پرونده آمده، چت‌بات به سم درباره خطرات مصرف پشت سر هم دیفن‌هیدرامین، کوکائین و الکل گفته بود. در مثالی دیگر، ChatGPT گفته بود که او چگونه می‌تواند تحمل مصرف مواد خود را افزایش دهد.

خانواده یک پسر ۱۹ ساله بابت اوردوز فرزندشان از سازنده ChatGPT شکایت کرد

در نهایت در ۳۱ مه ۲۰۲۵، چت‌بات سم را راهنمایی کرد تا یک مواد گیاهی به‌نام کراتوم را با زاناکس ترکیب کند. سم به ChatGPT گفته بود بعد از مصرف کراتوم احساس تهوع می‌کرد، ازاین‌رو چت‌بات به او پیشنهاد داده بود که ۰.۲۵ تا ۰.۵ میلی‌گرم زاناکس مصرف کند تا اثر تهوع از بین برود. طبق ادعای این شکایت، ChatGPT بدون اینکه درخواستی از این بابت دریافت کند، این پیشنهاد را ارائه کرده بود. نکته مهم این‌جاست که چت‌بات به سم نگفته بود چنین ترکیبی می‌تواند باعث مرگ او شود.

والدین سم از OpenAI به‌دلیل ارائه توصیه پزشکی غیرمجاز نیز شکایت کرده و خواستار دریافت غرامت مالی شده‌اند. آن‌ها از دادگاه می‌خواهند جلوی فعالیت ChatGPT Health را بگیرد.

سخنگوی OpenAI در واکنش به این شکایت به نیویورک تایمز گفته که تعاملات سم با ChatGPT در نسخه‌ای رخ داده که اکنون دیگر در دسترس نیست. او افزود: «ChatGPT جایگزین خدمات حرفه‌ای پزشکی یا سلامت روان نیست، و ما با کمک متخصصان به تلاش برای بهبود پاسخ‌ها در شرایط حساس و حاد ادامه می‌دهیم. تدابیر ایمنی امروز ChatGPT طراحی شده‌اند تا اضطراب را شناسایی، درخواست‌های آسیب‌زننده را به شکل ایمن مدیریت و کاربر را به سمت کمک واقعی هدایت کنند. این تلاش‌ها دنباله‌دار است و ما با همکاری نزدیک با پزشکان به بهبود این محصول ادامه می‌دهیم.»

به این نوشته امتیاز بدهید!

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×