«چت جی پی تی» جوکر خوبی نیست!محققان دریافته اند که هنگامی که از چت جی پی تی خواسته می شود یک جوک تعریف کند این چت بات 25 جوک یکسان را بارها و بارها تکرار می کند. - محققان دریافته اند که هنگامی که از چت جی پی تی خواسته می شود یک جوک تعریف کند این چت بات 25 جوک یکسان را بارها و بارها تکرار می کند. به گزارش ایسنا و به نقل از ارس تکنیکا، در روز چهارشنبه، دو محقق آلمانی با نام های سوفی جنتزش(Sophie Jentzsch) و کریستین کرستینگ(Kristian Kersting)، مقاله ای را منتشر کردند که توانایی نسخه ی ChatGPT-3. 5 شرکت OpenAI را در درک و تولید محتوای طنز بررسی می کرد. به طور خاص، آن ها دریافتند که دانش چت جی پی تی در مورد جوک ها نسبتا محدود است. در طول یک آزمایش، 90 درصد از 1008 جوک تولید شده، شامل 25 جوک یکسان بودند. این دو محقق به این نتیجه رسیدند که احتمالا این پاسخ ها در طول آموزش مدل هوش مصنوعی به جای اینکه تولید شوند، یاد گرفته شده و حفظ شده اند. آن ها که با موسسه ی فناوری نرم افزار، مرکز هوافضای آلمان(DLR) و دانشگاه فنی دارمشتات همکاری دارند، از طریق مجموعه ای از آزمایش ها با تمرکز بر تولید، توضیح و تشخیص جوک، تفاوت های ظریف، طنازی نسخه ی 3. 5 ChatGPT را بررسی کردند. آنها این آزمایش ها را بدون دسترسی به عملکرد داخلی یا مجموعه داده های این مدل زبانی انجام دادند. برچسب ها: |
آخرین اخبار سرویس: |