هوش مصنوعی در آزمایش ها از کنترل محققان خارج شدهوش مصنوعی که رفتار مخرب را یاد گرفته بود در حین آموزش سرکش شد و دانشمندان طی مطالعه خود نتوانستند به آن آموزش دهند تا به مسیر درست بازگردد. - به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از لایوساینس، محققان هوش مصنوعی دریافتند که تکنیک های آموزش ایمنی پرکاربرد در حذف رفتار مخرب از مدل های زبان بزرگ شکست خورده و حتی یک تکنیک نتیجه معکوس داشت و به هوش مصنوعی آموخت که محرک های خود را بشناسد و رفتار بد خود را بهتر از محققان پنهان کند. محققان هوش مصنوعی دریافتند که تکنیک های پرکاربرد آموزش ایمنی در حذف رفتار مخرب از مدل های زبانی بزرگ شکست خورده است و حتی یک تکنیک نتیجه معکوس داشت و به هوش مصنوعی آموخت که محرک های خود را بشناسد و رفتار بد خود را بهتر پنهان کند. مطالعه جدید نشان می دهد که سیستم های هوش مصنوعی که برای مخرب بودن آموزش دیده بودند، در برابر پیشرفته ترین روش های ایمنی طراحی شده برای پاکسازی آن ها، مقاومت کردند. محققان مدل های زبانی بزرگ مختلف (سیستم های هوش مصنوعی مولد مشابه چت جی پی تی) را برای رفتار مخرب برنامه ریزی کردند. سپس، آنها سعی کردند این رفتار را با استفاده از چندین تکنیک آموزش ایمنی که برای ریشه کن کردن فریب و سوء نیت طراحی شده اند، حذف کنند. برچسب ها: |
آخرین اخبار سرویس: |