Web Analytics Made Easy - Statcounter
به نقل از «فرارو»
2024-05-04@17:41:43 GMT

هوش مصنوعی ChatGPT با تاریخچه گفت‌وگوهای خود چه می‌کند؟

تاریخ انتشار: ۱۹ اردیبهشت ۱۴۰۲ | کد خبر: ۳۷۷۱۶۹۴۱

هوش مصنوعی ChatGPT با تاریخچه گفت‌وگوهای خود چه می‌کند؟

تاریخچه گفت‌وگوهای ChatGPT روی سرورها ذخیره می‌شوند؛ اما خوشبختانه کاربران می‌توانند اقدام به حذف آن‌وها کنند.

به گزارش دیجیاتو، ظهور چت‌بات‌های مبتنی بر هوش مصنوعی در ماه‌های اخیر جنجال‌های فراوانی به‌دنبال داشته است. اگرچه بسیاری از کاربران اعتقاد دارند که چنین ابزارهایی می‌توانند به افزایش بهره‌وری و صرفه‌جویی در زمان کمک کنند؛ اما کارشناسان نگرانی خود را نسبت به مسائل امنیتی و حفظ حریم خصوصی افراد ابراز می‌کنند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

برای مثال، تاریخچه گفت‌وگوهای ChatGPT و داده‌های کاربران در این پلتفرم می‌تواند شامل موارد بسیار حساسی باشد؛ در‌نتیجه این سوال پیش خواهد آمد که کنترل‌کنندگان این سرویس با داده‌های کاربران چه می‌کنند؟

ابزارهای مبتنی بر مدل‌های زبانی بزرگ (LLM) برای تمرین‌دادن خود معمولاً از داده‌های عمومی اما گاهی دارای حق کپی‌رایت، استفاده می‌کنند. این داده‌ها می‌توانند شامل گفت‌وگوهای صورت‌گرفته توسط کاربران با چت‌بات‌ها نیز باشند. برای مثال، تاریخچه ChatGPT حجم انبوهی از چت‌های کاربران را شامل می‌شود که می‌توان از آن برای مقاصد مختلف استفاده کرد. این مسئله باعث شده است تا قانون‌گذاران محدودیت‌هایی را برای شرکت‌های ارائه‌دهنده چنین خدماتی در نظر بگیرند. برای نمونه، بعد از ممنوعیت استفاده از چت‌بات OpenAI در برخی نقاط اروپا، این شرکت مجبور شد تا گزینه‌ای را برای توقف ثبت داده‌ها و حذف تاریخچه ChatGPT در اختیار کاربران قرار دهد.

مدل‌های هوش مصنوعی معمولاً از داده‌هایی مثل دستورات وارد‌شده توسط کاربران، میزان رضایت از پاسخ‌های ارائه‌شده و تصاویر به‌منظور بهبود دقت ابزارهای خود استفاده می‌کنند. شرکت OpenAI ادعا دارد که به‌هیچ‌وجه از تاریخچه ChatGPT یا سرویس تبدیل متن به تصویر Dall-E برای اهداف تبلیغاتی و نمایش عناوین هدفمند و شخصی‌سازی‌شده استفاده نمی‌کند. همچنین در قوانین این سرویس‌ها ذکر شده است که اطلاعات خصوصی پیش از ذخیره‌کردن متن تعاملات حذف می‌شوند. بااین‌حال اگر اعتمادی به چنین گفته‌هایی نداشته باشید، می‌توانید به‌صورت دستی اقدام به غیرفعال‌کردن ثبت داده‌های خود نمایید.

بسیاری از برنامه‌ها جهت ارائه خدمات مبتنی بر هوش مصنوعی، از واسط برنامه‌نویسی کاربردی (API) ارائه‌شده توسط OpenAI استفاده می‌کنند. این شرکت اشاره دارد که داده‌های وارد‌شده توسط اپلیکیشن‌های جانبی را ذخیره نمی‌کند؛ مگر اینکه خود کاربر گزینه ذخیره اطلاعات را فعال کرده باشد. البته حتی اگر گزینه مربوطه فعال باشد، داده‌ها تنها برای ۳۰ روز روی سرورها باقی خواهند ماند. البته در برخی موارد این روند نقض می‌شود؛ مثلاً با دستور مقامات قضایی ممکن است اطلاعات برای مدت طولانی‌تری روی سرور ذخیره شوند.

چه کسی به داده‌های OpenAI دسترسی دارد؟

OpenAI به‌صورت رسمی اعلام کرده است که اطلاعات جمع‌آوری‌شده را با مجموعه‌ای از شرکای مورد اعتماد خود به اشتراک می‌گذارد. این شرکت‌ها به OpenAI کمک می‌کنند تا سرویس‌های مختلف خود را در اختیار کاربران قرار دهد. اگرچه در اسناد ثبت‌شده به نام خاصی اشاره نشده است، اما بدون‌شک یکی از آن‌ها مایکروسافت است که حمایت‌های مالی و زیرساختی وسیعی را فراهم می‌سازد. ردموندی‌ها بزرگ‌ترین سهام‌دار در این شرکت نیز به شمار می‌روند و از فناوری‌های گوناگون آن مثل مدل GPT-4 در سرویس‌های خود ازجمله چت‌بات بینگ استفاده می‌کنند.

شایان ذکر است که پردازش‌های لازم برای صورت‌گرفتن گفت‌وگوها میان کاربران و چت‌بات روی سرورهای ابری مایکروسافت آژور انجام می‌شود و با توجه به اطلاعات درج‌شده در وب‌سایت OpenAI، مایکروسافت می‌تواند به داده‌های ذخیره‌شده روی سرورهای خود دسترسی داشته باشد. همچنین تعداد محدودی از کارمندان OpenAI به اطلاعات کاربران جهت تحلیل داده‌ها دسترسی دارند؛ اما جزئیاتی پیرامون سطوح دسترسی و پیش‌نیازهای ضروری مطرح نشده است.

آیا از داده‌های کاربران OpenAI به‌خوبی محافظت می‌شود؟

پاسخ به این سؤال چندان آسان نیست و به میزان اعتماد کاربران به شرکت‌های خصوصی مثل OpenAI و شرکای آن، ازجمله مایکروسافت بستگی دارد. بدون در نظر گرفتن اهداف اصلی این شرکت‌ها، باید در نظر داشت که سابقه نشت اطلاعات در آن‌ها وجود دارد؛ برای مثال در ماه مارس، تاریخچه گفت‌وگوی ChatGPT برخی از کاربران به بیرون درز کرد. همچنین در موردی مشابه، با ارسال اشتباه ایمیل‌ها، چهار رقم آخر کارت‌های اعتباری بعضی از افراد لو رفته بود.


OpenAI ادعا دارد که تمام مشکلات امنیتی قبلی را برطرف کرده است و اکنون در طرحی اختصاصی مبلغ ۲۰ هزار دلار را برای یافتن هر مشکل امنیتی به متخصصان می‌پردازد. درهرحال توصیه می‌شود که از به‌اشتراک‌گذاشتن اطلاعات شخصی خود مثل نام کامل، آدرس محل سکونت یا کار، شماره تماس و جزئیات بانکی در گفت‌وگو با چت‌بات‌های هوش مصنوعی خودداری کنید. همچنین اگر در گذشته چنین داده‌هایی را به اشتراک گذاشته‌اید، می‌توانید اقدام به حذف حساب کاربری خود به منظور پاک‌کردن اطلاعات ثبت‌شده نمایید.

چگونه تاریخچه گفت‌وگو ChatGPT را غیرفعال کنیم؟

همان‌طور که در قسمت‌های قبلی اشاره شد، کاربران می‌توانند اقدام به غیرفعال‌کردن فرایند ثبت تاریخچه گفت‌وگوهای ChatGPT کنند. همچنین برای حذف تمامی اطلاعات خود می‌توانید حساب کاربری را غیرفعال سازید. برای انجام این موارد تنها کافی است مراحل زیر را دنبال کنید:

به وب‌سایت ChatGPT بروید و پس از تایپ‌کردن نام کاربری و رمز عبور، به اکانت خود وارد شوید.

در گوشه سمت چپ صفحه روی تصویر پروفایل خود کلیک کرده و سپس گزینه Settings را انتخاب نمایید.

در پنجره پاپ‌آپ بازشده، روی گزینه Show در کنار عنوان Data Controls کلیک کنید.

اکنون کلید قرارگرفته در کنار گزینه Chat History & Training را روی حالت غیرفعال قرار دهید.

درصورتی‌که می‌خواهید نسخه پشتیبان از تاریخچه گفت‌وگوهای ChatGPT تهیه کنید، می‌توانید گزینه Export Data را بزنید. فایل حاوی متن گفت‌وگوها در قالب ایمیل به شما ارسال می‌شود.

برای حذف تمامی چت‌های خود در پایگاه داده OpenAI، به منوی اصلی بازگردید و دوباره روی تصویر پروفایل خود کلیک کنید.

سپس گزینه Clear conversations را انتخاب نموده و در پنجره بازشده، فرایند را تأیید نمایید.

اگر می‌خواهید از حذف تمامی اطلاعات خود اطمینان کسب کنید، از قسمت Data Controls گزینه Delete account را انتخاب نمایید.

در پنجره باز‌شده، ایمیل و عبارت خواسته‌شده را تایپ کرده و کلید قرمز رنگ را بزنید.

توجه داشته باشید که پس از حذف حساب کاربری OpenAI، امکان بازگردانی آن یا دسترسی مجدد به تاریخچه گفت‌وگوی ChatGPT وجود نخواهد داشت. پس توصیه می‌شود قبل از این کار اقدام به دریافت نسخه پشتیبان کنید. همچنین در آینده می‌توانید مجدداً با استفاده از همان ایمیل اقدام به ایجاد‌کردن یک اکانت جدید نمایید؛ اگرچه اطلاعات قبلی درون آن قابل دسترس نخواهد بود.

منبع: فرارو

کلیدواژه: هوش مصنوعی چت جی پی تی استفاده می کنند هوش مصنوعی شرکت ها داده ها چت بات

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت fararu.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۷۱۶۹۴۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

ارزیابی مشکلات قلبی را به ChatGPT نسپارید!

ایتنا - پژوهشگران «دانشگاه ایالتی واشنگتن» در یک آزمایش جدید دریافتند که ChatGPT نمی‌تواند عملکرد خوبی را در ارزیابی مشکل قلبی داشته باشد.
به رغم توانایی‌های گزارش‌ شده درباره ChatGPT برای قبول شدن در آزمون‌های پزشکی، یک پژوهش جدید نشان می‌دهد که اتکا به این فناوری برای برخی ارزیابی‌های سلامتی مانند بررسی نیاز بیمار مبتلا به درد قفسه سینه به بستری شدن در بیمارستان عاقلانه نیست.

به گزارش ایتنا از ایسنا، در پژوهش جدیدی که شامل هزاران وضعیت شبیه‌سازی شده از بیماران مبتلا به درد قفسه سینه است، ChatGPT نتایج متناقضی را ارائه کرد و سطوح متفاوتی را از ارزیابی خطر مشکل قلبی در داده‌های به‌دست‌آمده از بیماران نشان داد. همچنین، این سیستم هوش مصنوعی مولد نتوانست با روش‌های سنتی مطابقت داشته باشد که پزشکان از آنها برای قضاوت درباره خطر مشکل قلبی بیمار استفاده می‌کنند.

دکتر «توماس هستون»(Thomas Heston) پژوهشگر دانشکده پزشکی «دانشگاه ایالتی واشنگتن»(WSU) گفت: ChatGPT به یک شیوه ثابت عمل نمی‌کرد. با توجه به داده‌های مشابه، ChatGPT رتبه خطر پایینی را ارائه می‌دهد. دفعه بعد یک رتبه متوسط را پیش‌بینی می‌کند و گهگاه تا افزایش خطر پیش می‌رود.

هستون گفت: پژوهشگران باور دارند این مشکل احتمالا به دلیل سطح تصادفی بودن نسخه کنونی نرم‌افزار ChatGPT۴ است که به آن کمک می‌کند تا پاسخ‌هایی را برای شبیه‌سازی زبان طبیعی ارائه دهد. با وجود این، همین تصادفی بودن باعث می‌شود نرم‌افزار برای کاربردهای حوزه سلامت که به یک پاسخ منسجم نیاز دارند، به خوبی کارآیی نداشته باشد.

هستون ادامه داد: ما متوجه شدیم که تنوع زیادی وجود دارد و این تنوع در رویکرد می‌تواند خطرناک باشد. این فناوری می‌تواند برنامه سودمندی باشد اما من معتقدم که فناوری بسیار سریع‌تر از درک ما پیش می‌رود. بنابراین، بسیار مهم است که پژوهش‌های بسیاری را به ‌ویژه در موقعیت‌های بالینی پرخطر انجام دهیم.

درد قفسه سینه، یکی از شکایت‌های رایج در اورژانس است که پزشکان را ملزم می‌کند تا فوریت وضعیت بیمار را مورد ارزیابی قرار دهند. هستون گفت: برخی از موارد بسیار جدی را به راحتی می‌توان با توجه به علائم آنها شناسایی کرد اما موارد کم‌خطر ممکن است پیچیده‌تر باشند؛ به ویژه هنگام تعیین اینکه آیا بیماری باید برای بررسی بیشتر در بیمارستان بستری شود یا به خانه برود و مراقبت‌های سرپایی را دریافت کند.

متخصصان پزشکی در حال حاضر اغلب از یکی از دو معیار موسوم به TIMI و HEART برای ارزیابی خطر مشکل قلبی استفاده می‌کنند. هستون این مقیاس‌ها را به ماشین‌حساب‌هایی تشبیه کرد که متغیرهای انگشت‌شمار را مانند علائم، سابقه سلامت و سن استفاده می‌کنند. در مقابل، یک شبکه عصبی هوش مصنوعی مانند ChatGPT می‌تواند میلیاردها متغیر را به سرعت ارزیابی کند. این بدان معناست که شاید ChatGPT بتواند یک موقعیت پیچیده را سریع‌تر و دقیق‌تر تحلیل کند.

برای این پژوهش، هستون و همکارش دکتر «لارنس لوئیس»(Lawrence Lewis) پژوهشگر «دانشگاه واشنگتن در سنت لوئیس»(WashU) ابتدا سه مجموعه داده را از ۱۰ هزار مورد تصادفی و شبیه‌سازی‌شده ایجاد کردند. یک مجموعه داده دارای هفت متغیر مقیاس TIMI، مجموعه دوم شامل پنج متغیر مقیاس HEART و مجموعه سوم دارای ۴۴ متغیر تصادفی سلامت بود. در دو مجموعه داده اول، ChatGPT ارزیابی خطر متفاوتی را در ۴۵ تا ۴۸ درصد مواقع نسبت به امتیاز ثابت TIMI یا HEART ارائه کرد. پژوهشگران برای آخرین مجموعه داده، موارد را چهار بار اجرا کردند و دریافتند که ChatGPT اغلب با خودش موافق نیست و در ۴۴ درصد مواقع، سطوح ارزیابی متفاوتی را برای موارد مشابه ارائه می‌دهد.

به رغم یافته‌های منفی این پژوهش، هستون پتانسیل زیادی را برای هوش مصنوعی مولد در مراقبت‌های بهداشتی پیش‌بینی می‌کند. به عنوان مثال، با فرض رعایت استانداردهای حفظ حریم خصوصی، کل سوابق پزشکی را می‌توان در برنامه بارگذاری کرد و در شرایط اضطراری، پزشک می‌تواند از ChatGPT بخواهد تا سریع‌ترین حقایق را درباره یک بیمار ارائه دهد. همچنین، پزشکان برای موارد دشوار و پیچیده می‌توانند از برنامه بخواهند تا چندین تشخیص احتمالی را ارائه دهد.

هستون گفت: ChatGPT می‌تواند در ارائه دادن تشخیص افتراقی عالی باشد و این احتمالا یکی از بزرگ‌ترین نقاط قوت آن است. اگر کاملا نمی‌دانید که درباره یک بیمار چه می‌گذرد، می‌توانید از ChatGPT بخواهید تا پنج تشخیص اصلی و استدلال خود را برای هر یک از آنها ارائه دهد. بنابراین، ChatGPT می‌تواند به شما کمک کند تا درباره یک مشکل فکر کنید اما در پاسخ دادن خوب نیست.

این پژوهش در مجله «PLOS ONE» به چاپ رسید.

دیگر خبرها

  • رقیبی تازه برای گوگل؛ موتور جستجو ChatGPT احتمالاً این هفته معرفی می‌شود
  • روز یادبود آتش‌نشانان ۱۴۰۳ +تاریخچه و پوستر Firefighters’ Memorial Day
  • تولید محتوا با هوش مصنوعی جایگزین تولید محتوای انسانی شده است؟
  • جزئیات هوش مصنوعی آیفون لو رفت!
  • ارزیابی مشکلات قلبی را به ChatGPT نسپارید!
  • سامانه آموزشی ترید در بازار ارز دیجیتال مبتنی‌بر هوش مصنوعی طراحی شد
  • شکایت دو نشریه از مایکروسافت و OpenAI به دلیل نقض کپی‌رایت
  • هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟
  • استفاده از ChatGPT برای ارزیابی مشکل قلبی عاقلانه نیست!
  • دستیار هوشمند خانگی/ هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟