بیش از یک شرکت از هر سه شرکت به دلیل تعصب هوش مصنوعی سوخته است
بیش از یک شرکت از هر سه شرکت به دلیل تعصب هوش مصنوعی سوخته است
بر اساس نظرسنجی جدید یک شرکت هوش مصنوعی، تعصب در سیستمهای هوش مصنوعی میتواند منجر به زیانهای قابل توجهی برای شرکتها شود.
همانطور که در نظرسنجی DataRobot از بیش از 350 فنآور در ایالات متحده و بریتانیا، از جمله CIO و CIO نشان داد، بیش از یک شرکت از هر سه (36 درصد) نشان داد که به دلیل تعصب هوش مصنوعی در یک یا چند الگوریتم متحمل ضرر شدهاند. و دانشمندان توسعه مشتریان بالقوه ای که از هوش مصنوعی استفاده می کنند یا قصد استفاده از آن را دارند.
طبق تحقیقات، در میان شرکتهایی که تحت تأثیر تعصب هوش مصنوعی قرار گرفتهاند، بیش از نیمی از درآمد (62 درصد) یا مشتریان (61 درصد) را از دست دادهاند، در حالی که نزدیک به نیمی (43 درصد) کارمندان خود را از دست دادهاند و بیش از یک سوم هزینههای حقوقی ناشی از دعوی قضایی (35 درصد) را متحمل شدهاند. با همکاری مجمع جهانی اقتصاد و رهبران دانشگاهی جهانی انجام شد.
کی فرث باترفیلد، رئیس هوش مصنوعی و یادگیری ماشین و عضو کمیته اجرایی مجمع جهانی اقتصاد، یک سازمان بینالمللی غیردولتی و لابیگر مستقر در کلن سوئیس، گفت هوش مصنوعی مغرضانه میتواند از طرق مختلف بر درآمد تأثیر بگذارد.
او به TechNewsWorld گفت: “اگر فرد اشتباهی را با الگوریتم منابع انسانی مغرضانه انتخاب کنید، می تواند بر درآمد تاثیر بگذارد.”
او میگوید: «اگر پول قرض میدهید و الگوریتمی مغرضانه دارید، نمیتوانید کسبوکار خود را توسعه دهید، زیرا همیشه زیرمجموعه کوچکی از افرادی را که همیشه به آنها وام دادهاید وام میدهید». اضافه.
ناخواسته اما همچنان مضر است
پاسخ دهندگان در نظرسنجی همچنین نشان دادند که الگوریتمهایی که توسط سازمانهایشان استفاده میشوند به طور ناخواسته به تعصب علیه افراد بر اساس جنسیت (34 درصد)، سن (32 درصد)، نژاد (29 درصد)، گرایش جنسی (19 درصد) و مذهب (18 درصد) کمک میکنند.
در گزارش اخیر در مورد عدالت هوش مصنوعی، فورستر هشدار داد که “تبعیض مبتنی بر هوش مصنوعی – حتی اگر ناخواسته – می تواند اثرات نظارتی شدیدی بر شهرت و درآمد داشته باشد.”
او ادامه داد: «در حالی که بیشتر سازمانها عدالت در هوش مصنوعی را به عنوان یک اصل میپذیرند، ایجاد فرآیندهایی برای اجرای مداوم آن یک چالش است. معیارهای متعددی برای ارزیابی عادلانه بودن سیستمهای هوش مصنوعی وجود دارد و تعیین رویکرد صحیح به مورد استفاده و زمینه اجتماعی آن بستگی دارد.
متیو فینی، مدیر پروژه فناوری های نوظهور در مؤسسه کاتو، یک اندیشکده در واشنگتن دی سی، توضیح داد که سوگیری در هوش مصنوعی پیچیده است، اما تعصبی که بسیاری از افراد به سیستم های هوش مصنوعی نسبت می دهند محصول داده های مورد استفاده در آموزش است. سیستم.
او به TechNewsWorld گفت: «یکی از برجستهترین کاربردهای هوش مصنوعی در اخبار این روزها، تشخیص چهره است. اسناد گسترده ای از تعصب نژادی در تشخیص چهره وجود دارد.
او توضیح داد: «این سیستم ها هنگام تلاش برای شناسایی افراد سیاهپوست کمتر قابل اعتماد هستند. زمانی اتفاق میافتد که سیستم با تصاویری آموزش داده میشود که به اندازه کافی افراد یک گروه قومی خاص را نشان نمیدهند یا زمانی که تصاویر آن گروه از کیفیت خوبی برخوردار نیستند.»
او گفت: «این لزوماً ناشی از هیچ نیت شومی از جانب مهندسان و طراحان نیست، بلکه محصول دادههای مورد استفاده برای آموزش سیستم است.»
فرث باترفیلد افزود: “افرادی که الگوریتم ها را ایجاد می کنند، تعصبات خود را برای ایجاد آن الگوریتم ها به ارمغان می آورند.” “اگر الگوریتمی توسط یک مرد سفیدپوست 30 ساله ایجاد شده باشد، سوگیری هایی که او ارائه می دهد احتمالا با یک زن 30 ساله آفریقایی آمریکایی متفاوت خواهد بود.”
تعصب در مقابل تبعیض
دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست عمومی در واشنگتن دی سی، تاکید کرد که مردم به سرعت و به سرعت با اصطلاح سوگیری برای هوش مصنوعی بازی می کنند.
او به TechNewsWorld گفت: «من دوست دارم تعصب هوش مصنوعی را به عنوان یک خطای ثابت در دقت یک الگوریتم، یعنی تفاوت بین تخمین و مقدار واقعی آن تعریف کنم.
او گفت: «بیشتر شرکتها انگیزههای قوی در بازار برای حذف تعصب در سیستمهای هوش مصنوعی دارند، زیرا میخواهند الگوریتمهایشان دقیق باشد.
وی ادامه داد: به عنوان مثال، اگر الگوریتم به اشتباه محصول بهینه را برای یک خریدار توصیه کند، شرکت پول را برای یک رقیب روی میز می گذارد.
او افزود: «همچنین دلایل معتبری برای شرکتها وجود دارد که سوگیری در هوش مصنوعی را حذف کنند، زیرا ممکن است محصولات یا خدمات آنها غیر استاندارد تلقی شود.»
او توضیح داد که گاهی نیروهای بازار برای از بین بردن تعصب بی اثر هستند.
او توضیح داد: «به عنوان مثال، اگر یک سازمان دولتی از الگوریتمی برای برآورد ارزش دارایی برای اهداف مالیاتی استفاده کند، ممکن است مکانیسم بازار خوبی برای اصلاح سوگیری وجود نداشته باشد. در این موارد، دولت باید به عنوان مثال از طریق اقدامات شفافسازی، نظارت جایگزین انجام دهد.»
او افزود: «اما گاهی اوقات مردم وقتی واقعاً به معنای تمایز هستند، به تعصب هوش مصنوعی اشاره میکنند. “اگر مالکی علیه مستاجران خاصی تبعیض قائل شود، ما باید قوانین ضد تبعیض موجود را اجرا کنیم، خواه مالک از الگوریتم یا انسان برای تبعیض علیه دیگران استفاده کند.”
لیست در بال است
نظرسنجی DataRobot همچنین از شرکت کنندگان در مورد تنظیم هوش مصنوعی سؤال کرد. هشت نفر از 10 فناور (81 درصد) گفتند که مقررات دولتی می تواند در دو زمینه مفید باشد: شناسایی و جلوگیری از سوگیری.
با این حال، تقریباً نیمی از افراد مورد بررسی (45 درصد) اذعان داشتند که نگران این هستند که مقررات میتواند هزینه انجام کسبوکار را افزایش دهد.
علاوه بر این، نزدیک به یک سوم از پاسخ دهندگان (32 درصد) ابراز نگرانی کردند که بدون مقررات، گروه های خاصی از مردم ممکن است آلوده شوند.
فینی گفت: “شما فراخوان های زیادی برای این نوع چیزها می بینید، اما هوش مصنوعی در مورد مقررات بسیار گسترده است.” “شما در مورد تشخیص چهره، ماشین های خودران، برنامه های نظامی و بسیاری موارد دیگر صحبت می کنید.”
شرکت خدمات حرفه ای جهانی Deloitte پیش بینی کرده است که در سال 2022 بحث های قابل توجهی در مورد مقررات هوش مصنوعی وجود خواهد داشت، اگرچه معتقد نیست که اجرای کامل این مقررات تا سال 2023 انجام نخواهد شد.
او خاطرنشان کرد که برخی از حوزههای قضایی ممکن است حتی سعی کنند کل زیرشاخههای هوش مصنوعی – مانند تشخیص چهره در مکانهای عمومی، گزارشهای اجتماعی و فناوریهای زیرآگهی را به طور کامل ممنوع کنند.
هوش مصنوعی وعدههای فوقالعادهای دارد، اما احتمالاً در سال 2022 بررسیهای بیشتری را شاهد خواهیم بود زیرا تنظیمکنندهها به دنبال درک بهتر مفاهیم حریم خصوصی و امنیت دادههای برنامههای کاربردی هوش مصنوعی در حال ظهور و اجرای استراتژیهایی برای محافظت از مصرفکنندگان هستند. در یک بیانیه مطبوعاتی.
او هشدار داد که “شرکت های فناوری خود را در نقطه ای می بینند که دیگر نمی توانند مسائل اخلاقی مانند اینها را به سرنوشت خود بسپارند.” “آنچه نیاز است یک رویکرد جامع برای پرداختن به مسئولیت اخلاقی است. شرکت هایی که از این رویکرد پیروی می کنند، به ویژه در زمینه های جدیدتر مانند هوش مصنوعی، می توانند انتظار پذیرش بیشتر، اعتماد بیشتر و افزایش درآمد را داشته باشند.”