روش جدید به طور موثر از داده های آموزشی حساس هوش مصنوعی محافظت می کندبه گزارش گروه دانشگاه خبرگزاری دانشجو، حفظ حریم خصوصی داده ها هزینه دارد. تکنیک های امنیتی وجود دارد که از داده های حساس کاربر، مانند آدرس های مشتری، - به گزارش گروه دانشگاه خبرگزاری دانشجو، حفظ حریم خصوصی داده ها هزینه دارد. تکنیک های امنیتی وجود دارد که از داده های حساس کاربر، مانند آدرس های مشتری، در برابر مهاجمانی که ممکن است سعی کنند آنها را از مدل های هوش مصنوعی استخراج کنند محافظت می کند –، اما اغلب این مدل ها را دقیق تر می کنند. محققان MIT اخیراً چارچوبی را بر اساس معیار حریم خصوصی جدید به نام PAC Privacy توسعه داده اند که می تواند عملکرد یک مدل هوش مصنوعی را حفظ کند و در عین حال اطمینان حاصل کند که داده های حساس مانند تصاویر پزشکی یا سوابق مالی در برابر مهاجمان در امان هستند. اکنون، آنها این کار را با کارآمدتر کردن تکنیک خود از نظر محاسباتی، بهبود معاوضه بین دقت و حریم خصوصی، و ایجاد یک الگوی رسمی که می تواند برای خصوصی کردن تقریباً هر الگوریتم بدون نیاز به دسترسی به عملکرد درونی آن الگوریتم مورد استفاده قرار گیرد، یک قدم جلوتر برداشته اند. این تیم از نسخه جدید PAC Privacy برای خصوصی سازی چندین الگوریتم کلاسیک برای تجزیه و تحلیل داده ها و وظایف یادگیری ماشینی استفاده کرد. برچسب ها: حریم خصوصی - هوش مصنوعی - داده - مصنوعی - حساس - خبرگزاری - خصوصی |
آخرین اخبار سرویس: |