هوش مصنوعی ChatGPT با تاریخچه گفتوگوهای خود چه میکند؟
تاریخ انتشار: ۱۹ اردیبهشت ۱۴۰۲ | کد خبر: ۳۷۷۱۶۹۴۱
تاریخچه گفتوگوهای ChatGPT روی سرورها ذخیره میشوند؛ اما خوشبختانه کاربران میتوانند اقدام به حذف آنوها کنند.
به گزارش دیجیاتو، ظهور چتباتهای مبتنی بر هوش مصنوعی در ماههای اخیر جنجالهای فراوانی بهدنبال داشته است. اگرچه بسیاری از کاربران اعتقاد دارند که چنین ابزارهایی میتوانند به افزایش بهرهوری و صرفهجویی در زمان کمک کنند؛ اما کارشناسان نگرانی خود را نسبت به مسائل امنیتی و حفظ حریم خصوصی افراد ابراز میکنند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
ابزارهای مبتنی بر مدلهای زبانی بزرگ (LLM) برای تمریندادن خود معمولاً از دادههای عمومی اما گاهی دارای حق کپیرایت، استفاده میکنند. این دادهها میتوانند شامل گفتوگوهای صورتگرفته توسط کاربران با چتباتها نیز باشند. برای مثال، تاریخچه ChatGPT حجم انبوهی از چتهای کاربران را شامل میشود که میتوان از آن برای مقاصد مختلف استفاده کرد. این مسئله باعث شده است تا قانونگذاران محدودیتهایی را برای شرکتهای ارائهدهنده چنین خدماتی در نظر بگیرند. برای نمونه، بعد از ممنوعیت استفاده از چتبات OpenAI در برخی نقاط اروپا، این شرکت مجبور شد تا گزینهای را برای توقف ثبت دادهها و حذف تاریخچه ChatGPT در اختیار کاربران قرار دهد.
مدلهای هوش مصنوعی معمولاً از دادههایی مثل دستورات واردشده توسط کاربران، میزان رضایت از پاسخهای ارائهشده و تصاویر بهمنظور بهبود دقت ابزارهای خود استفاده میکنند. شرکت OpenAI ادعا دارد که بههیچوجه از تاریخچه ChatGPT یا سرویس تبدیل متن به تصویر Dall-E برای اهداف تبلیغاتی و نمایش عناوین هدفمند و شخصیسازیشده استفاده نمیکند. همچنین در قوانین این سرویسها ذکر شده است که اطلاعات خصوصی پیش از ذخیرهکردن متن تعاملات حذف میشوند. بااینحال اگر اعتمادی به چنین گفتههایی نداشته باشید، میتوانید بهصورت دستی اقدام به غیرفعالکردن ثبت دادههای خود نمایید.
بسیاری از برنامهها جهت ارائه خدمات مبتنی بر هوش مصنوعی، از واسط برنامهنویسی کاربردی (API) ارائهشده توسط OpenAI استفاده میکنند. این شرکت اشاره دارد که دادههای واردشده توسط اپلیکیشنهای جانبی را ذخیره نمیکند؛ مگر اینکه خود کاربر گزینه ذخیره اطلاعات را فعال کرده باشد. البته حتی اگر گزینه مربوطه فعال باشد، دادهها تنها برای ۳۰ روز روی سرورها باقی خواهند ماند. البته در برخی موارد این روند نقض میشود؛ مثلاً با دستور مقامات قضایی ممکن است اطلاعات برای مدت طولانیتری روی سرور ذخیره شوند.
چه کسی به دادههای OpenAI دسترسی دارد؟
OpenAI بهصورت رسمی اعلام کرده است که اطلاعات جمعآوریشده را با مجموعهای از شرکای مورد اعتماد خود به اشتراک میگذارد. این شرکتها به OpenAI کمک میکنند تا سرویسهای مختلف خود را در اختیار کاربران قرار دهد. اگرچه در اسناد ثبتشده به نام خاصی اشاره نشده است، اما بدونشک یکی از آنها مایکروسافت است که حمایتهای مالی و زیرساختی وسیعی را فراهم میسازد. ردموندیها بزرگترین سهامدار در این شرکت نیز به شمار میروند و از فناوریهای گوناگون آن مثل مدل GPT-4 در سرویسهای خود ازجمله چتبات بینگ استفاده میکنند.
شایان ذکر است که پردازشهای لازم برای صورتگرفتن گفتوگوها میان کاربران و چتبات روی سرورهای ابری مایکروسافت آژور انجام میشود و با توجه به اطلاعات درجشده در وبسایت OpenAI، مایکروسافت میتواند به دادههای ذخیرهشده روی سرورهای خود دسترسی داشته باشد. همچنین تعداد محدودی از کارمندان OpenAI به اطلاعات کاربران جهت تحلیل دادهها دسترسی دارند؛ اما جزئیاتی پیرامون سطوح دسترسی و پیشنیازهای ضروری مطرح نشده است.
آیا از دادههای کاربران OpenAI بهخوبی محافظت میشود؟
پاسخ به این سؤال چندان آسان نیست و به میزان اعتماد کاربران به شرکتهای خصوصی مثل OpenAI و شرکای آن، ازجمله مایکروسافت بستگی دارد. بدون در نظر گرفتن اهداف اصلی این شرکتها، باید در نظر داشت که سابقه نشت اطلاعات در آنها وجود دارد؛ برای مثال در ماه مارس، تاریخچه گفتوگوی ChatGPT برخی از کاربران به بیرون درز کرد. همچنین در موردی مشابه، با ارسال اشتباه ایمیلها، چهار رقم آخر کارتهای اعتباری بعضی از افراد لو رفته بود.
OpenAI ادعا دارد که تمام مشکلات امنیتی قبلی را برطرف کرده است و اکنون در طرحی اختصاصی مبلغ ۲۰ هزار دلار را برای یافتن هر مشکل امنیتی به متخصصان میپردازد. درهرحال توصیه میشود که از بهاشتراکگذاشتن اطلاعات شخصی خود مثل نام کامل، آدرس محل سکونت یا کار، شماره تماس و جزئیات بانکی در گفتوگو با چتباتهای هوش مصنوعی خودداری کنید. همچنین اگر در گذشته چنین دادههایی را به اشتراک گذاشتهاید، میتوانید اقدام به حذف حساب کاربری خود به منظور پاککردن اطلاعات ثبتشده نمایید.
چگونه تاریخچه گفتوگو ChatGPT را غیرفعال کنیم؟
همانطور که در قسمتهای قبلی اشاره شد، کاربران میتوانند اقدام به غیرفعالکردن فرایند ثبت تاریخچه گفتوگوهای ChatGPT کنند. همچنین برای حذف تمامی اطلاعات خود میتوانید حساب کاربری را غیرفعال سازید. برای انجام این موارد تنها کافی است مراحل زیر را دنبال کنید:
به وبسایت ChatGPT بروید و پس از تایپکردن نام کاربری و رمز عبور، به اکانت خود وارد شوید.
در گوشه سمت چپ صفحه روی تصویر پروفایل خود کلیک کرده و سپس گزینه Settings را انتخاب نمایید.
در پنجره پاپآپ بازشده، روی گزینه Show در کنار عنوان Data Controls کلیک کنید.
اکنون کلید قرارگرفته در کنار گزینه Chat History & Training را روی حالت غیرفعال قرار دهید.
درصورتیکه میخواهید نسخه پشتیبان از تاریخچه گفتوگوهای ChatGPT تهیه کنید، میتوانید گزینه Export Data را بزنید. فایل حاوی متن گفتوگوها در قالب ایمیل به شما ارسال میشود.
برای حذف تمامی چتهای خود در پایگاه داده OpenAI، به منوی اصلی بازگردید و دوباره روی تصویر پروفایل خود کلیک کنید.
سپس گزینه Clear conversations را انتخاب نموده و در پنجره بازشده، فرایند را تأیید نمایید.
اگر میخواهید از حذف تمامی اطلاعات خود اطمینان کسب کنید، از قسمت Data Controls گزینه Delete account را انتخاب نمایید.
در پنجره بازشده، ایمیل و عبارت خواستهشده را تایپ کرده و کلید قرمز رنگ را بزنید.
توجه داشته باشید که پس از حذف حساب کاربری OpenAI، امکان بازگردانی آن یا دسترسی مجدد به تاریخچه گفتوگوی ChatGPT وجود نخواهد داشت. پس توصیه میشود قبل از این کار اقدام به دریافت نسخه پشتیبان کنید. همچنین در آینده میتوانید مجدداً با استفاده از همان ایمیل اقدام به ایجادکردن یک اکانت جدید نمایید؛ اگرچه اطلاعات قبلی درون آن قابل دسترس نخواهد بود.
منبع: فرارو
کلیدواژه: هوش مصنوعی چت جی پی تی استفاده می کنند هوش مصنوعی شرکت ها داده ها چت بات
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت fararu.com دریافت کردهاست، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۷۱۶۹۴۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
ارزیابی مشکلات قلبی را به ChatGPT نسپارید!
ایتنا - پژوهشگران «دانشگاه ایالتی واشنگتن» در یک آزمایش جدید دریافتند که ChatGPT نمیتواند عملکرد خوبی را در ارزیابی مشکل قلبی داشته باشد.
به رغم تواناییهای گزارش شده درباره ChatGPT برای قبول شدن در آزمونهای پزشکی، یک پژوهش جدید نشان میدهد که اتکا به این فناوری برای برخی ارزیابیهای سلامتی مانند بررسی نیاز بیمار مبتلا به درد قفسه سینه به بستری شدن در بیمارستان عاقلانه نیست.
به گزارش ایتنا از ایسنا، در پژوهش جدیدی که شامل هزاران وضعیت شبیهسازی شده از بیماران مبتلا به درد قفسه سینه است، ChatGPT نتایج متناقضی را ارائه کرد و سطوح متفاوتی را از ارزیابی خطر مشکل قلبی در دادههای بهدستآمده از بیماران نشان داد. همچنین، این سیستم هوش مصنوعی مولد نتوانست با روشهای سنتی مطابقت داشته باشد که پزشکان از آنها برای قضاوت درباره خطر مشکل قلبی بیمار استفاده میکنند.
دکتر «توماس هستون»(Thomas Heston) پژوهشگر دانشکده پزشکی «دانشگاه ایالتی واشنگتن»(WSU) گفت: ChatGPT به یک شیوه ثابت عمل نمیکرد. با توجه به دادههای مشابه، ChatGPT رتبه خطر پایینی را ارائه میدهد. دفعه بعد یک رتبه متوسط را پیشبینی میکند و گهگاه تا افزایش خطر پیش میرود.
هستون گفت: پژوهشگران باور دارند این مشکل احتمالا به دلیل سطح تصادفی بودن نسخه کنونی نرمافزار ChatGPT۴ است که به آن کمک میکند تا پاسخهایی را برای شبیهسازی زبان طبیعی ارائه دهد. با وجود این، همین تصادفی بودن باعث میشود نرمافزار برای کاربردهای حوزه سلامت که به یک پاسخ منسجم نیاز دارند، به خوبی کارآیی نداشته باشد.
هستون ادامه داد: ما متوجه شدیم که تنوع زیادی وجود دارد و این تنوع در رویکرد میتواند خطرناک باشد. این فناوری میتواند برنامه سودمندی باشد اما من معتقدم که فناوری بسیار سریعتر از درک ما پیش میرود. بنابراین، بسیار مهم است که پژوهشهای بسیاری را به ویژه در موقعیتهای بالینی پرخطر انجام دهیم.
درد قفسه سینه، یکی از شکایتهای رایج در اورژانس است که پزشکان را ملزم میکند تا فوریت وضعیت بیمار را مورد ارزیابی قرار دهند. هستون گفت: برخی از موارد بسیار جدی را به راحتی میتوان با توجه به علائم آنها شناسایی کرد اما موارد کمخطر ممکن است پیچیدهتر باشند؛ به ویژه هنگام تعیین اینکه آیا بیماری باید برای بررسی بیشتر در بیمارستان بستری شود یا به خانه برود و مراقبتهای سرپایی را دریافت کند.
متخصصان پزشکی در حال حاضر اغلب از یکی از دو معیار موسوم به TIMI و HEART برای ارزیابی خطر مشکل قلبی استفاده میکنند. هستون این مقیاسها را به ماشینحسابهایی تشبیه کرد که متغیرهای انگشتشمار را مانند علائم، سابقه سلامت و سن استفاده میکنند. در مقابل، یک شبکه عصبی هوش مصنوعی مانند ChatGPT میتواند میلیاردها متغیر را به سرعت ارزیابی کند. این بدان معناست که شاید ChatGPT بتواند یک موقعیت پیچیده را سریعتر و دقیقتر تحلیل کند.
برای این پژوهش، هستون و همکارش دکتر «لارنس لوئیس»(Lawrence Lewis) پژوهشگر «دانشگاه واشنگتن در سنت لوئیس»(WashU) ابتدا سه مجموعه داده را از ۱۰ هزار مورد تصادفی و شبیهسازیشده ایجاد کردند. یک مجموعه داده دارای هفت متغیر مقیاس TIMI، مجموعه دوم شامل پنج متغیر مقیاس HEART و مجموعه سوم دارای ۴۴ متغیر تصادفی سلامت بود. در دو مجموعه داده اول، ChatGPT ارزیابی خطر متفاوتی را در ۴۵ تا ۴۸ درصد مواقع نسبت به امتیاز ثابت TIMI یا HEART ارائه کرد. پژوهشگران برای آخرین مجموعه داده، موارد را چهار بار اجرا کردند و دریافتند که ChatGPT اغلب با خودش موافق نیست و در ۴۴ درصد مواقع، سطوح ارزیابی متفاوتی را برای موارد مشابه ارائه میدهد.
به رغم یافتههای منفی این پژوهش، هستون پتانسیل زیادی را برای هوش مصنوعی مولد در مراقبتهای بهداشتی پیشبینی میکند. به عنوان مثال، با فرض رعایت استانداردهای حفظ حریم خصوصی، کل سوابق پزشکی را میتوان در برنامه بارگذاری کرد و در شرایط اضطراری، پزشک میتواند از ChatGPT بخواهد تا سریعترین حقایق را درباره یک بیمار ارائه دهد. همچنین، پزشکان برای موارد دشوار و پیچیده میتوانند از برنامه بخواهند تا چندین تشخیص احتمالی را ارائه دهد.
هستون گفت: ChatGPT میتواند در ارائه دادن تشخیص افتراقی عالی باشد و این احتمالا یکی از بزرگترین نقاط قوت آن است. اگر کاملا نمیدانید که درباره یک بیمار چه میگذرد، میتوانید از ChatGPT بخواهید تا پنج تشخیص اصلی و استدلال خود را برای هر یک از آنها ارائه دهد. بنابراین، ChatGPT میتواند به شما کمک کند تا درباره یک مشکل فکر کنید اما در پاسخ دادن خوب نیست.
این پژوهش در مجله «PLOS ONE» به چاپ رسید.