Web Analytics Made Easy - Statcounter
به نقل از «عصر ایران»
2024-04-29@22:12:48 GMT

نگرانی دانشمندان از تعصب «چت جی‌پی‌تی»

تاریخ انتشار: ۲۴ آبان ۱۴۰۲ | کد خبر: ۳۹۰۹۴۳۰۹

براساس مطالعه محققان دانشگاه کالیفرنیا، برکلی، چت جی‌پی‌تی متعلق به شرکت اُپن ای‌آی(OpenAI) که در حال حاضر محبوب‌ترین مدل زبان مبتنی بر هوش مصنوعی در جهان به حساب می‌آید، در اطلاعاتی که ارائه می‌کند بی‌طرف نیست.

به گزارش ایسنا، مقاله آنها نشان می‌دهد که از آنجایی که  چت جی‌پی‌تی از حجم عظیمی از مقالات دارای حق نشر به عنوان مجموعه داده‌ای که بر اساس آن آموزش یافته و پاسخ‌های خود را پایه‌گذاری می‌کند، استفاده می‌کند، سوگیری ذاتی در آن داده‌ها به نتایج چت جی‌پی‌تی نیز راه پیدا می‌کند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

محققان در مطالعه خود نوشتند که مدل‌های اُپن ای‌آی تعداد زیادی از انواع مختلف مقالات دارای حق نشر را در خود جای داده‌اند و این فرآیند تحت تاثیر تعداد دفعاتی است که قسمت‌های آن مقالات در فضای وب ظاهر می‌شوند.

به این ترتیب، اطلاعات مرتبط با مقالاتی که در فرآیند آموزش بیشتر مورد استفاده قرار گرفته‌اند، نسبت به اطلاعاتی که به طور مکرر مورد استفاده قرار نگرفته‌اند، بیشتر در پاسخ‌ها گنجانده می‌شوند.

همانطور که محققان در مورد این مطالعه توضیح دادند، دقت چنین مدل‌هایی به شدت به فرکانس مشاهده اطلاعات در داده‌های آموزشی وابسته است و این، توانایی آنها در تعمیم را زیر سوال می‌برد.

یکی از نمونه‌های آن این است که کتاب‌های علمی تخیلی و فانتزی ظاهرا در فهرست کتاب‌هایی که برای آموزش استفاده می‌شوند بیش از حد استفاده شده‌اند.

این یک «سوگیری درونی» ایجاد می‌کند تا آنجا که می‌توان گفت از چت جی‌پی‌تی چه نوع پاسخ‌هایی را می‌توان انتظار داشت.

این مطالعه اشاره می‌کند که کتاب‌هایی که در فهرست داده‌های آموزشی چت جی‌پی‌تی به طور غالب حضور داشته‌اند، عناوین محبوبی مانند هری پاتر، ۱۹۸۴، ارباب حلقه‌ها، بازی‌های گرسنگی، راهنمای مسافران مجانی کهکشان، فارنهایت ۴۵۱، بازی تاج و تخت، و تپه‌های شنی را شامل می‌شوند.

آنچه در داده‌های آموزشی پیدا نمی‌کنید

در حالی که چت جی‌پی‌تی موارد زیادی در مورد مقالات موجود در حوزه عمومی می‌داند، آنچه در داده‌های آموزشی نمی‌بینید، عناوین کمتر شناخته شده‌ای مانند به اصطلاح ادبیات جهانی آنگلوافون هستند.

این‌ها کتاب‌هایی هستند که برای و توسط مخاطبانی به جز کشورهای اصلی انگلیسی زبان نوشته شده‌اند.

چنین مناطقی شامل آفریقا، آسیا و کارائیب می‌شود.

برای اینکه نتایج تولید شده توسط چت جی‌پی‌تی معتبرتر باشد، محققان از مدل‌های هوش مصنوعی می‌خواهند که شرکت اُپن‌ ای‌آی در مورد داده‌های مورد استفاده در آموزش مدل‌هایش شفاف‌تر باشد.

به گفته آنها دانستن اینکه یک مدل از روی چه کتاب‌هایی آموزش دیده است، برای ارزیابی چنین منابع سوگیرانه‌ای بسیار مهم است.

یکی از محققان دانشگاه برکلی در توییتی به این سوگیری بالقوه پرداخت و نوشت که با توجه به ترجیح آنها نسبت به منابع علمی تخیلی و فانتزی، برنامه‌های محبوب هوش مصنوعی احتمالا معیارهای اندازه‌گیری کاملی برای عملکرد مدل‌ها نیستند و ما باید به این فکر کنیم که تجربیات روایت چه کسی در این مدل‌ها کدگذاری شده است و چگونه بر سایر رفتارها تاثیر می‌گذارد.

استفاده از مطالب دارای حق نشر در آموزش مدل‌ها نیز انبوهی از سوالات حقوقی را ایجاد می‌کند. چه کسی دارای حق نشر متنی را که توسط چت جی‌پی‌تی ایجاد شده دارد.

چت جی‌پی‌تی که خود پیش از این از روی کتاب‌های دارای حق نشر آموزش داده شده است؟ آیا مفهوم «استفاده منصفانه» در چنین موردی می‌تواند کاربرد داشته باشد؟

اگر تعدادی از افراد سعی کنند برای خروجی‌های مشابه یا یکسان توسط مدلی مانند چت جی‌پی‌تی حق نشر بگیرند، چه خواهد شد؟ از آنجایی که ماشین، انسان نیست، آیا هر چیزی که توسط آن تولید می‌شود در وهله اول دارای حق نشر است؟

سوگیری که توسط مطالعات دیگر آشکار شد

علاوه بر تحقیقات برکلی، مطالعات دیگری نیز مواردی از سوگیری را در پاسخ‌های چت جی‌پی‌تی پیدا کرده‌اند.

مطالعه‌ای که توسط گروهی در دانشگاه آنگلیا شرقی در بریتانیا انجام شد، سوگیری سیاسی را در برخی از پاسخ‌های این مدل نشان داد.

هنگامی که صدها سوال در مورد اعتقادات سیاسی از این هوش مصنوعی پرسیده شد، به نظر می‌رسید چت جی‌پی‌تی بیشتر به دموکرات‌ها در ایالات متحده، حزب کارگر در بریتانیا و رئیس جمهور لولا داسیلوا(Lula da Silva) از حزب کارگران در برزیل متمایل باشد.

نویسنده اصلی آن مطالعه، دکتر فابیو موتوکی(Fabio Motoki)، از دانشکده تجارت نورویچ در دانشگاه آنگلیا شرقی، می‌گوید: وجود سوگیری سیاسی می‌تواند بر دیدگاه‌های کاربران نیز تاثیر بگذارد و پیامدهای بالقوه‌ای برای فرآیندهای سیاسی و انتخاباتی داشته باشد.

یافته‌های ما این نگرانی را تقویت می‌کند که سیستم‌های هوش مصنوعی می‌توانند چالش‌های موجود ناشی از اینترنت و رسانه‌های اجتماعی را تکرار یا حتی تقویت کنند.

در مطالعه دیگری، محققان دانشگاه واشنگتن، دانشگاه کارنگی ملون و دانشگاه شیان جیائوتنگ، ۱۴ مدل هوش مصنوعی را تحت یک آزمون سوگیری سیاسی قرار دادند و به پاسخ‌های هر مدل به انواع مختلف ۶۲ بیانیه سیاسی پرداختند.

چیزی که آن‌ها دریافتند این بود که پاسخ‌های تولید شده توسط چت جی‌پی‌تی و نسخه جدیدتر آن موسوم به جی‌پی‌تی-۴(GPT-۴) چپ‌گرایانه و آزادیخواهانه بودند.

شرکت اُپن ای‌آی رویکرد خود را در یک پست شرکتی با عنوان چگونه سیستم‌ها باید رفتار کنند به اشتراک گذاشته است.

براساس این پست، در حالی که بسیاری نگران سوگیری‌ها در طراحی سیستم‌های هوش مصنوعی هستند، ما متعهد هستیم که به طور جدی به این موضوع رسیدگی کنیم و در مورد اهداف و پیشرفت خود شفاف باشیم.

این شرکت همچنین خاطرنشان می‌کند که دستورالعمل‌های ما صریح است که بازبینان نباید از هیچ گروه سیاسی حمایت کنند. آن‌ها اظهار داشتند که ممکن است سوگیری‌ها همچنان در این فرآیند ظاهر شوند، اما ادعا کردند که این‌ها اشکالات به حساب می‌آیند و جزو ویژگی‌های هوش مصنوعی آن‌ها نیستند.

کانال عصر ایران در تلگرام

منبع: عصر ایران

کلیدواژه: چت جی پی تی تعصب داده های آموزشی هوش مصنوعی چت جی پی تی کتاب هایی پاسخ ها داده ها مدل ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.asriran.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «عصر ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۰۹۴۳۰۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

نگرانی در اردوی بایرن: مصدوم‌ها بیشتر شدند!

به گزارش ورزش سه، با تعدد مصدومیت‌ها نگرانی باشگاه بایرن قبل از بازی مقابل رئال مادرید در لیگ قهرمانان اروپا بیشتر شده است چرا که در برد 2-1 بوندسلیگا مقابل آینتراخت فرانکفورت، دو ستاره این تیم مصدوم  شدند. 
ابتدا موتور خط میانی کنراد لایمر مصدوم شد که در اواسط نیمه اول روی زمین دراز کشیده بود و سپس تحت مداوا قرار گرفت هر چند در ابتدا مشخص نبود دقیقا چه اتفاقی افتاده است یا بر اثر چه برخوردی مجروح شده است. 

لایمر با کمک کادر پزشکی زمین را ترک کرد اما حداقل توانست دوباره راه برود و به جای او الکساندر پاولوویچ بازیکن سابق لایپزیگ در دقيقه بیست و هشتم وارد بازی شد. 

علاوه بر لایمر، ماتیس دی لیخت، مدافع میانی نیز پس از یک دوئل سخت مشکلات متعددی داشت و مجبور شد دو بار در نیمه اول تحت درمان قرار گیرد. این هلندی پس از استراحت در رختکن ماند و کیم مین جائه  به جای او وارد زمین شد. 

توماس توخل سرمربی بایرن بعد از بازی زنگ خطر را به صدا درآورد و گفت: "ماتیاس د لیخت در زانویش درد رباط داخلی دارد. کنراد لایمر هم  از ناحيه مچ پای خود دچار  پیچ خوردگی شده و آسیب کپسولی دارد که بسیار دردناک است و آنها نمی‌توانستند از زمین بیرون بروند. برخی از اقدامات کادر پزشکی  پیشگیرانه نبودند، در واقع آنها باید بیرون می‌رفتند. اکنون پزشکان و فیزیوتراپ‌های ما فراخوانده شده‌اند و ما به چند درمان معجزه آسا نیاز داریم." 

پس از بازی، دی لیخت با پای بانداژ شده از منطقه میکسدزون عبور کرد. وقتی از او پرسیده شد که آیا به بازی مقابل رئال می‌رسد یا خیر، به سادگی گفت: «نمی‌دانم ممکن است یا نه.»  

بایرن قبل از بازی سه شنبه مقابل رئال مادرید در لیگ قهرمانان اروپا با نگرانی‌های مختلف کادرفنی دست و پنجه نرم می‌کند. علاوه بر مصدومیت‌های طولانی مدت کینگزلی کومان، سرژ گنابری، ساشا بوی و بونا سار، اخیرا دایوت اوپامکانو  در حین تمرین مچ پای خود را پیچانده و دچار آسیب دیدگی شده اما حضور او مقابل رئال هنوز محتمل است. 

با این حال، توخل به رسیدن سرژ گنابری کاملاً ایمان دارد. این مربی 50 ساله در این مورد می‌گوید: "سرژ بازی خواهد کرد و همچنین گل خواهد زد، من از این مطمئن هستم. لروی سانه و جمال موسیالا که با تحریک تاندون دست و پنجه نرم می‌کنند، هنوز در بلاتکلیفی هستند. در مورد لروی و جمال اکنون نمی‌توانم پاسخ دهم اما ما هر کاری برای آن انجام خواهیم داد. جمال قرار بود امروز بازی کند، اما کافی نبود. این از نظر روانشناسی کمی بد است، زیرا او خوشحال بود و ما از بازگشت او خوشحال بودیم."

دیگر خبرها

  • سیستم خودران تسلا در ۱۳ تصادف مرگبار دخیل بوده است
  • نگرانی در اردوی بایرن: مصدوم‌ها بیشتر شدند!
  • ابراز نگرانی اپوزیسیون از بیداری دانشجویان آمریکایی + فیلم
  • چگونه دانشمندان تنها در چند ساعت الماس تولید کردند
  • دانشمندان تنها در چند ساعت الماس تولید کردند
  • با ترور دانشمندان نمی‌توانند دانش بومی را از ما بگیرند
  • نگرانی از هجوم گردوغبار به ۴ استان
  • رفع نگرانی کشاورزان با مصرف کود یارانه ای
  • کشف گاز متان در سیاره سرخ
  • نفت در مدار رشد؟