نگرانی دانشمندان از تعصب «چت جیپیتی»
تاریخ انتشار: ۲۴ آبان ۱۴۰۲ | کد خبر: ۳۹۰۹۴۳۰۹
براساس مطالعه محققان دانشگاه کالیفرنیا، برکلی، چت جیپیتی متعلق به شرکت اُپن ایآی(OpenAI) که در حال حاضر محبوبترین مدل زبان مبتنی بر هوش مصنوعی در جهان به حساب میآید، در اطلاعاتی که ارائه میکند بیطرف نیست.
به گزارش ایسنا، مقاله آنها نشان میدهد که از آنجایی که چت جیپیتی از حجم عظیمی از مقالات دارای حق نشر به عنوان مجموعه دادهای که بر اساس آن آموزش یافته و پاسخهای خود را پایهگذاری میکند، استفاده میکند، سوگیری ذاتی در آن دادهها به نتایج چت جیپیتی نیز راه پیدا میکند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
محققان در مطالعه خود نوشتند که مدلهای اُپن ایآی تعداد زیادی از انواع مختلف مقالات دارای حق نشر را در خود جای دادهاند و این فرآیند تحت تاثیر تعداد دفعاتی است که قسمتهای آن مقالات در فضای وب ظاهر میشوند.
به این ترتیب، اطلاعات مرتبط با مقالاتی که در فرآیند آموزش بیشتر مورد استفاده قرار گرفتهاند، نسبت به اطلاعاتی که به طور مکرر مورد استفاده قرار نگرفتهاند، بیشتر در پاسخها گنجانده میشوند.
همانطور که محققان در مورد این مطالعه توضیح دادند، دقت چنین مدلهایی به شدت به فرکانس مشاهده اطلاعات در دادههای آموزشی وابسته است و این، توانایی آنها در تعمیم را زیر سوال میبرد.
یکی از نمونههای آن این است که کتابهای علمی تخیلی و فانتزی ظاهرا در فهرست کتابهایی که برای آموزش استفاده میشوند بیش از حد استفاده شدهاند.
این یک «سوگیری درونی» ایجاد میکند تا آنجا که میتوان گفت از چت جیپیتی چه نوع پاسخهایی را میتوان انتظار داشت.
این مطالعه اشاره میکند که کتابهایی که در فهرست دادههای آموزشی چت جیپیتی به طور غالب حضور داشتهاند، عناوین محبوبی مانند هری پاتر، ۱۹۸۴، ارباب حلقهها، بازیهای گرسنگی، راهنمای مسافران مجانی کهکشان، فارنهایت ۴۵۱، بازی تاج و تخت، و تپههای شنی را شامل میشوند.
آنچه در دادههای آموزشی پیدا نمیکنیددر حالی که چت جیپیتی موارد زیادی در مورد مقالات موجود در حوزه عمومی میداند، آنچه در دادههای آموزشی نمیبینید، عناوین کمتر شناخته شدهای مانند به اصطلاح ادبیات جهانی آنگلوافون هستند.
اینها کتابهایی هستند که برای و توسط مخاطبانی به جز کشورهای اصلی انگلیسی زبان نوشته شدهاند.
چنین مناطقی شامل آفریقا، آسیا و کارائیب میشود.
برای اینکه نتایج تولید شده توسط چت جیپیتی معتبرتر باشد، محققان از مدلهای هوش مصنوعی میخواهند که شرکت اُپن ایآی در مورد دادههای مورد استفاده در آموزش مدلهایش شفافتر باشد.
به گفته آنها دانستن اینکه یک مدل از روی چه کتابهایی آموزش دیده است، برای ارزیابی چنین منابع سوگیرانهای بسیار مهم است.
یکی از محققان دانشگاه برکلی در توییتی به این سوگیری بالقوه پرداخت و نوشت که با توجه به ترجیح آنها نسبت به منابع علمی تخیلی و فانتزی، برنامههای محبوب هوش مصنوعی احتمالا معیارهای اندازهگیری کاملی برای عملکرد مدلها نیستند و ما باید به این فکر کنیم که تجربیات روایت چه کسی در این مدلها کدگذاری شده است و چگونه بر سایر رفتارها تاثیر میگذارد.
استفاده از مطالب دارای حق نشر در آموزش مدلها نیز انبوهی از سوالات حقوقی را ایجاد میکند. چه کسی دارای حق نشر متنی را که توسط چت جیپیتی ایجاد شده دارد.
چت جیپیتی که خود پیش از این از روی کتابهای دارای حق نشر آموزش داده شده است؟ آیا مفهوم «استفاده منصفانه» در چنین موردی میتواند کاربرد داشته باشد؟
اگر تعدادی از افراد سعی کنند برای خروجیهای مشابه یا یکسان توسط مدلی مانند چت جیپیتی حق نشر بگیرند، چه خواهد شد؟ از آنجایی که ماشین، انسان نیست، آیا هر چیزی که توسط آن تولید میشود در وهله اول دارای حق نشر است؟
سوگیری که توسط مطالعات دیگر آشکار شدعلاوه بر تحقیقات برکلی، مطالعات دیگری نیز مواردی از سوگیری را در پاسخهای چت جیپیتی پیدا کردهاند.
مطالعهای که توسط گروهی در دانشگاه آنگلیا شرقی در بریتانیا انجام شد، سوگیری سیاسی را در برخی از پاسخهای این مدل نشان داد.
هنگامی که صدها سوال در مورد اعتقادات سیاسی از این هوش مصنوعی پرسیده شد، به نظر میرسید چت جیپیتی بیشتر به دموکراتها در ایالات متحده، حزب کارگر در بریتانیا و رئیس جمهور لولا داسیلوا(Lula da Silva) از حزب کارگران در برزیل متمایل باشد.
نویسنده اصلی آن مطالعه، دکتر فابیو موتوکی(Fabio Motoki)، از دانشکده تجارت نورویچ در دانشگاه آنگلیا شرقی، میگوید: وجود سوگیری سیاسی میتواند بر دیدگاههای کاربران نیز تاثیر بگذارد و پیامدهای بالقوهای برای فرآیندهای سیاسی و انتخاباتی داشته باشد.
یافتههای ما این نگرانی را تقویت میکند که سیستمهای هوش مصنوعی میتوانند چالشهای موجود ناشی از اینترنت و رسانههای اجتماعی را تکرار یا حتی تقویت کنند.
در مطالعه دیگری، محققان دانشگاه واشنگتن، دانشگاه کارنگی ملون و دانشگاه شیان جیائوتنگ، ۱۴ مدل هوش مصنوعی را تحت یک آزمون سوگیری سیاسی قرار دادند و به پاسخهای هر مدل به انواع مختلف ۶۲ بیانیه سیاسی پرداختند.
چیزی که آنها دریافتند این بود که پاسخهای تولید شده توسط چت جیپیتی و نسخه جدیدتر آن موسوم به جیپیتی-۴(GPT-۴) چپگرایانه و آزادیخواهانه بودند.
شرکت اُپن ایآی رویکرد خود را در یک پست شرکتی با عنوان چگونه سیستمها باید رفتار کنند به اشتراک گذاشته است.
براساس این پست، در حالی که بسیاری نگران سوگیریها در طراحی سیستمهای هوش مصنوعی هستند، ما متعهد هستیم که به طور جدی به این موضوع رسیدگی کنیم و در مورد اهداف و پیشرفت خود شفاف باشیم.
این شرکت همچنین خاطرنشان میکند که دستورالعملهای ما صریح است که بازبینان نباید از هیچ گروه سیاسی حمایت کنند. آنها اظهار داشتند که ممکن است سوگیریها همچنان در این فرآیند ظاهر شوند، اما ادعا کردند که اینها اشکالات به حساب میآیند و جزو ویژگیهای هوش مصنوعی آنها نیستند.
کانال عصر ایران در تلگراممنبع: عصر ایران
کلیدواژه: چت جی پی تی تعصب داده های آموزشی هوش مصنوعی چت جی پی تی کتاب هایی پاسخ ها داده ها مدل ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.asriran.com دریافت کردهاست، لذا منبع این خبر، وبسایت «عصر ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۰۹۴۳۰۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
نگرانی در اردوی بایرن: مصدومها بیشتر شدند!
به گزارش ورزش سه، با تعدد مصدومیتها نگرانی باشگاه بایرن قبل از بازی مقابل رئال مادرید در لیگ قهرمانان اروپا بیشتر شده است چرا که در برد 2-1 بوندسلیگا مقابل آینتراخت فرانکفورت، دو ستاره این تیم مصدوم شدند.
ابتدا موتور خط میانی کنراد لایمر مصدوم شد که در اواسط نیمه اول روی زمین دراز کشیده بود و سپس تحت مداوا قرار گرفت هر چند در ابتدا مشخص نبود دقیقا چه اتفاقی افتاده است یا بر اثر چه برخوردی مجروح شده است.
لایمر با کمک کادر پزشکی زمین را ترک کرد اما حداقل توانست دوباره راه برود و به جای او الکساندر پاولوویچ بازیکن سابق لایپزیگ در دقيقه بیست و هشتم وارد بازی شد.
علاوه بر لایمر، ماتیس دی لیخت، مدافع میانی نیز پس از یک دوئل سخت مشکلات متعددی داشت و مجبور شد دو بار در نیمه اول تحت درمان قرار گیرد. این هلندی پس از استراحت در رختکن ماند و کیم مین جائه به جای او وارد زمین شد.
توماس توخل سرمربی بایرن بعد از بازی زنگ خطر را به صدا درآورد و گفت: "ماتیاس د لیخت در زانویش درد رباط داخلی دارد. کنراد لایمر هم از ناحيه مچ پای خود دچار پیچ خوردگی شده و آسیب کپسولی دارد که بسیار دردناک است و آنها نمیتوانستند از زمین بیرون بروند. برخی از اقدامات کادر پزشکی پیشگیرانه نبودند، در واقع آنها باید بیرون میرفتند. اکنون پزشکان و فیزیوتراپهای ما فراخوانده شدهاند و ما به چند درمان معجزه آسا نیاز داریم."
پس از بازی، دی لیخت با پای بانداژ شده از منطقه میکسدزون عبور کرد. وقتی از او پرسیده شد که آیا به بازی مقابل رئال میرسد یا خیر، به سادگی گفت: «نمیدانم ممکن است یا نه.»
بایرن قبل از بازی سه شنبه مقابل رئال مادرید در لیگ قهرمانان اروپا با نگرانیهای مختلف کادرفنی دست و پنجه نرم میکند. علاوه بر مصدومیتهای طولانی مدت کینگزلی کومان، سرژ گنابری، ساشا بوی و بونا سار، اخیرا دایوت اوپامکانو در حین تمرین مچ پای خود را پیچانده و دچار آسیب دیدگی شده اما حضور او مقابل رئال هنوز محتمل است.
با این حال، توخل به رسیدن سرژ گنابری کاملاً ایمان دارد. این مربی 50 ساله در این مورد میگوید: "سرژ بازی خواهد کرد و همچنین گل خواهد زد، من از این مطمئن هستم. لروی سانه و جمال موسیالا که با تحریک تاندون دست و پنجه نرم میکنند، هنوز در بلاتکلیفی هستند. در مورد لروی و جمال اکنون نمیتوانم پاسخ دهم اما ما هر کاری برای آن انجام خواهیم داد. جمال قرار بود امروز بازی کند، اما کافی نبود. این از نظر روانشناسی کمی بد است، زیرا او خوشحال بود و ما از بازگشت او خوشحال بودیم."