سینتو برنده چالش تعصب جنسیتی یونسکو در Vivatech 2021 در فرانسه شد.

خوشحالیم که در VivaTech 2021 به عنوان برنده چالش تعصب جنسیتی یونسکو اعلام شدیم. Syntho: "bias in = bias out" و ما پیشنهاد می کنیم که عدم تعادل در داده های ورودی را با متعادل کردن آن با داده های مصنوعی هوشمند حل کنیم. در VivaTech، "ویژگی متعادل سازی داده" جدید خود را به نمایش گذاشتیم که یکی از ارزش افزوده های جدید ماست ویژگی های داده های مصنوعی، که داده های شما را به سطح بعدی می برد!

چالش تعصب جنسیتی یونسکو

مقدمه ای بر VivaTech ، یونسکو و چالش سوگیری جنسیتی

VivaTech چیست؟

VivaTech بزرگترین رویداد استارتاپی و فناوری اروپا است که در تاریخ 16 تا 19 ژوئن 2021 برگزار شد. امسال ، این سازمان میزبان یک تجربه ترکیبی به دلیل COVID ، به صورت حضوری در پاریس و آنلاین در سراسر جهان بود ، که جامعه بزرگتری از نوآوران را گرد هم می آورد.

لوگوی Viva Technologie

یونسکو چیست؟

یونسکو سازمان آموزشی ، علمی و فرهنگی ملل متحد است. یونسکو از آزادی بیان و دسترسی به اطلاعات به عنوان یک حق اساسی و شرط کلیدی برای دموکراسی و توسعه دفاع می کند. یونسکو که به عنوان آزمایشگاه ایده ها با نوآوری های دیجیتالی در قلب خود فعالیت می کند ، به کشورها کمک می کند تا سیاست ها و برنامه هایی را توسعه دهند که جریان آزاد ایده ها و اشتراک دانش را برای مقابله با چالش های جهان و توسعه پایدار برای همه تضمین کند.

چالش سوگیری جنسیتی چیست؟

هدف چالش سوگیری جنسیتی کاهش شکاف دیجیتالی جنسیتی با افشای سوگیری در هوش مصنوعی است. هوش مصنوعی از مجموعه داده های مغرضانه تغذیه می کند و تعصب جنسیتی موجود در جوامع ما را تقویت می کند. شواهد نشان می دهد که تا سال 2022 ، 85٪ از پروژه های هوش مصنوعی نتایج نادرستی را به دلیل جانبداری به دنبال خواهد داشت اگر هوش مصنوعی به عنوان یک فناوری و به عنوان یک بخش فراگیر و متنوع نباشد. چگونه می توانیم مطمئن شویم که مجموعه داده ها تنوع بیشتری دارند؟ یونسکو به دنبال راه حل های خلاقانه ای است که هدف آن کاهش شکاف دیجیتالی جنسیتی با افشای سوگیری در هوش مصنوعی است.

راه حل برنده ما: حل عدم تعادل در داده های ورودی با متعادل کردن آن با داده های مصنوعی هوشمند

 

چالش از نظر ما: تعصب در = تعصب بیرون

گزارش نهایی یونسکو از سال 2019 نشان داد که ابزارهای دستیار صوتی مجهز به هوش مصنوعی مانند الکسا و سیری کلیشه های مضر را تداوم بخشیده و حتی سوءاستفاده جنسیتی علیه فناوری "زنانه" توسط شرکت های فناوری پیش بینی شده است.

در این مثال از یونسکو ، اگر سوگیری خاصی در داده ها وجود داشته باشد ، بی جهت باعث ایجاد تعصب در خروجی می شود. از این رو ، بیانیه ما: 'تعصب در = تعصب خارج'. و در مثال مشترک ، ظاهراً توسعه دهندگان از عدم تعادل و سوگیری های خاصی در داده ها مطلع بوده اند. بنابراین ، چگونه می توان بر این غلبه کرد؟

این تصویر چالش سوگیری داده ها را نشان می دهد که در آن تعصب در داده ها می تواند منجر به تعصب در الگوریتم ها شود

راه حل ما: تولید داده های مصنوعی هوشمند برای کاهش تعصبات داده ها

ما باید مجموعه داده ها را مجدداً متعادل کنیم تا چالش های سوگیری داده ها را که می تواند منجر به تبعیض در الگوریتم ها شود ، حل کنیم. راه حل ما چگونه کار می کند. در این مثال ، سوگیری و عدم تعادل در داده ها وجود دارد. جایی که انتظار داریم 50 درصد مرد و 50 درصد زن باشد ، تنها 33 درصد زن و 66 درصد مرد می بینیم. ما می توانیم این مسئله را با ایجاد سوابق داده مصنوعی زنانه یا مردانه حل کنیم تا مجموعه داده ها به 50٪ مردان و 50٪ زنان تعادل داده شود تا تعصبات و عدم تعادل در داده ها کاهش یابد که می تواند منجر به تبعیض شود. به این ترتیب ما سوگیری های داده را حل می کنیم. ما مشکل را ریشه ای حل می کنیم. ما چالش "bias in = data bias out" را حل می کنیم.

این تصویر ویژگی جدید تعادل داده ها را با داده های مصنوعی نشان می دهد

گروهی از مردم که لبخند می زنند

داده ها مصنوعی هستند، اما تیم ما واقعی است!

با سینتو تماس بگیرید و یکی از کارشناسان ما با سرعت نور با شما تماس می گیرد تا ارزش داده های مصنوعی را کشف کند!