توییتر به طراحی نژادپرستانه یکی از الگوریتم های خود اعتراف کردتوییتر پذیرفته که الگوریتم مورد استفاده آن برای برش زدن و استخراج خودکار چهره افراد در تصاویر عملکرد نژادپرستانه ای دارد و معمولاً سفیدپوستان را به سیاه پوستان ترجیح می دهد. - به نقل از زد دی نت، توییتر می گوید بررسی های انجام شده حاکیست الگوریتم یادشده برای استخراج خودکار چهره افراد حداقل 4 درصد بیشتر به نفع سفیدپوستان عمل کرده و آنها را بر سیاه پوستان ترجیح می دهد. الگوریتم یادشده برای بررسی میزان بی طرفی در زمان شناسایی و استخراج چهره افراد رنگین پوست در مقایسه با افراد سفیدپوست مورد بررسی قرار گرفته است. پیش از این مشخص شده بود این الگوریتم تبعیض جنسیتی انجام نمی دهد. اما تبعیض جنسیتی آن در زمان شناسایی زنان سیاه پوست در مقایسه با زنان سفیدپوست بیشتر شده و به 7 درصد افزایش می یابد. طراحی الگوریتم یادشده از سال 2018 آغاز شده، اما مهندسان توییتر هنوز موفق نشده اند آن را به طور کامل بی طرف و یکدست کنند. این الگوریتم کماکان ابتدا افراد سفیدپوست را شناسایی می کند و برای آنها اولویت قائل است. در عین حال الگوریتم یادشده در زمینه شناسایی زنان و مردان به نفع زنان عمل می کند و حداقل 8 درصد به نفع زنان خطا دارد. برچسب ها: |
آخرین اخبار سرویس: |