تکنولوژی

بیش از یک شرکت از هر سه شرکت به دلیل تعصب هوش مصنوعی سوخته است

بیش از یک شرکت از هر سه شرکت به دلیل تعصب هوش مصنوعی سوخته است

بر اساس نظرسنجی جدید یک شرکت هوش مصنوعی، تعصب در سیستم‌های هوش مصنوعی می‌تواند منجر به زیان‌های قابل توجهی برای شرکت‌ها شود.

همانطور که در نظرسنجی DataRobot از بیش از 350 فن‌آور در ایالات متحده و بریتانیا، از جمله CIO و CIO نشان داد، بیش از یک شرکت از هر سه (36 درصد) نشان داد که به دلیل تعصب هوش مصنوعی در یک یا چند الگوریتم متحمل ضرر شده‌اند. و دانشمندان توسعه مشتریان بالقوه ای که از هوش مصنوعی استفاده می کنند یا قصد استفاده از آن را دارند.

طبق تحقیقات، در میان شرکت‌هایی که تحت تأثیر تعصب هوش مصنوعی قرار گرفته‌اند، بیش از نیمی از درآمد (62 درصد) یا مشتریان (61 درصد) را از دست داده‌اند، در حالی که نزدیک به نیمی (43 درصد) کارمندان خود را از دست داده‌اند و بیش از یک سوم هزینه‌های حقوقی ناشی از دعوی قضایی (35 درصد) را متحمل شده‌اند. با همکاری مجمع جهانی اقتصاد و رهبران دانشگاهی جهانی انجام شد.

کی فرث باترفیلد، رئیس هوش مصنوعی و یادگیری ماشین و عضو کمیته اجرایی مجمع جهانی اقتصاد، یک سازمان بین‌المللی غیردولتی و لابی‌گر مستقر در کلن سوئیس، گفت هوش مصنوعی مغرضانه می‌تواند از طرق مختلف بر درآمد تأثیر بگذارد.

او به TechNewsWorld گفت: “اگر فرد اشتباهی را با الگوریتم منابع انسانی مغرضانه انتخاب کنید، می تواند بر درآمد تاثیر بگذارد.”

او می‌گوید: «اگر پول قرض می‌دهید و الگوریتمی مغرضانه دارید، نمی‌توانید کسب‌وکار خود را توسعه دهید، زیرا همیشه زیرمجموعه کوچکی از افرادی را که همیشه به آنها وام داده‌اید وام می‌دهید». اضافه.

ناخواسته اما همچنان مضر است

پاسخ دهندگان در نظرسنجی همچنین نشان دادند که الگوریتم‌هایی که توسط سازمان‌هایشان استفاده می‌شوند به طور ناخواسته به تعصب علیه افراد بر اساس جنسیت (34 درصد)، سن (32 درصد)، نژاد (29 درصد)، گرایش جنسی (19 درصد) و مذهب (18 درصد) کمک می‌کنند.

در گزارش اخیر در مورد عدالت هوش مصنوعی، فورستر هشدار داد که “تبعیض مبتنی بر هوش مصنوعی – حتی اگر ناخواسته – می تواند اثرات نظارتی شدیدی بر شهرت و درآمد داشته باشد.”

او ادامه داد: «در حالی که بیشتر سازمان‌ها عدالت در هوش مصنوعی را به عنوان یک اصل می‌پذیرند، ایجاد فرآیندهایی برای اجرای مداوم آن یک چالش است. معیارهای متعددی برای ارزیابی عادلانه بودن سیستم‌های هوش مصنوعی وجود دارد و تعیین رویکرد صحیح به مورد استفاده و زمینه اجتماعی آن بستگی دارد.

متیو فینی، مدیر پروژه فناوری های نوظهور در مؤسسه کاتو، یک اندیشکده در واشنگتن دی سی، توضیح داد که سوگیری در هوش مصنوعی پیچیده است، اما تعصبی که بسیاری از افراد به سیستم های هوش مصنوعی نسبت می دهند محصول داده های مورد استفاده در آموزش است. سیستم.

او به TechNewsWorld گفت: «یکی از برجسته‌ترین کاربردهای هوش مصنوعی در اخبار این روزها، تشخیص چهره است. اسناد گسترده ای از تعصب نژادی در تشخیص چهره وجود دارد.

او توضیح داد: «این سیستم ها هنگام تلاش برای شناسایی افراد سیاهپوست کمتر قابل اعتماد هستند. زمانی اتفاق می‌افتد که سیستم با تصاویری آموزش داده می‌شود که به اندازه کافی افراد یک گروه قومی خاص را نشان نمی‌دهند یا زمانی که تصاویر آن گروه از کیفیت خوبی برخوردار نیستند.»

او گفت: «این لزوماً ناشی از هیچ نیت شومی از جانب مهندسان و طراحان نیست، بلکه محصول داده‌های مورد استفاده برای آموزش سیستم است.»

فرث باترفیلد افزود: “افرادی که الگوریتم ها را ایجاد می کنند، تعصبات خود را برای ایجاد آن الگوریتم ها به ارمغان می آورند.” “اگر الگوریتمی توسط یک مرد سفیدپوست 30 ساله ایجاد شده باشد، سوگیری هایی که او ارائه می دهد احتمالا با یک زن 30 ساله آفریقایی آمریکایی متفاوت خواهد بود.”

تعصب در مقابل تبعیض

دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست عمومی در واشنگتن دی سی، تاکید کرد که مردم به سرعت و به سرعت با اصطلاح سوگیری برای هوش مصنوعی بازی می کنند.

او به TechNewsWorld گفت: «من دوست دارم تعصب هوش مصنوعی را به عنوان یک خطای ثابت در دقت یک الگوریتم، یعنی تفاوت بین تخمین و مقدار واقعی آن تعریف کنم.

او گفت: «بیشتر شرکت‌ها انگیزه‌های قوی در بازار برای حذف تعصب در سیستم‌های هوش مصنوعی دارند، زیرا می‌خواهند الگوریتم‌هایشان دقیق باشد.

وی ادامه داد: به عنوان مثال، اگر الگوریتم به اشتباه محصول بهینه را برای یک خریدار توصیه کند، شرکت پول را برای یک رقیب روی میز می گذارد.

او افزود: «همچنین دلایل معتبری برای شرکت‌ها وجود دارد که سوگیری در هوش مصنوعی را حذف کنند، زیرا ممکن است محصولات یا خدمات آنها غیر استاندارد تلقی شود.»

او توضیح داد که گاهی نیروهای بازار برای از بین بردن تعصب بی اثر هستند.

او توضیح داد: «به عنوان مثال، اگر یک سازمان دولتی از الگوریتمی برای برآورد ارزش دارایی برای اهداف مالیاتی استفاده کند، ممکن است مکانیسم بازار خوبی برای اصلاح سوگیری وجود نداشته باشد. در این موارد، دولت باید به عنوان مثال از طریق اقدامات شفاف‌سازی، نظارت جایگزین انجام دهد.»

او افزود: «اما گاهی اوقات مردم وقتی واقعاً به معنای تمایز هستند، به تعصب هوش مصنوعی اشاره می‌کنند. “اگر مالکی علیه مستاجران خاصی تبعیض قائل شود، ما باید قوانین ضد تبعیض موجود را اجرا کنیم، خواه مالک از الگوریتم یا انسان برای تبعیض علیه دیگران استفاده کند.”

لیست در بال است

نظرسنجی DataRobot همچنین از شرکت کنندگان در مورد تنظیم هوش مصنوعی سؤال کرد. هشت نفر از 10 فناور (81 درصد) گفتند که مقررات دولتی می تواند در دو زمینه مفید باشد: شناسایی و جلوگیری از سوگیری.

با این حال، تقریباً نیمی از افراد مورد بررسی (45 درصد) اذعان داشتند که نگران این هستند که مقررات می‌تواند هزینه انجام کسب‌وکار را افزایش دهد.

علاوه بر این، نزدیک به یک سوم از پاسخ دهندگان (32 درصد) ابراز نگرانی کردند که بدون مقررات، گروه های خاصی از مردم ممکن است آلوده شوند.

فینی گفت: “شما فراخوان های زیادی برای این نوع چیزها می بینید، اما هوش مصنوعی در مورد مقررات بسیار گسترده است.” “شما در مورد تشخیص چهره، ماشین های خودران، برنامه های نظامی و بسیاری موارد دیگر صحبت می کنید.”

شرکت خدمات حرفه ای جهانی Deloitte پیش بینی کرده است که در سال 2022 بحث های قابل توجهی در مورد مقررات هوش مصنوعی وجود خواهد داشت، اگرچه معتقد نیست که اجرای کامل این مقررات تا سال 2023 انجام نخواهد شد.

او خاطرنشان کرد که برخی از حوزه‌های قضایی ممکن است حتی سعی کنند کل زیرشاخه‌های هوش مصنوعی – مانند تشخیص چهره در مکان‌های عمومی، گزارش‌های اجتماعی و فناوری‌های زیرآگهی را به طور کامل ممنوع کنند.

هوش مصنوعی وعده‌های فوق‌العاده‌ای دارد، اما احتمالاً در سال 2022 بررسی‌های بیشتری را شاهد خواهیم بود زیرا تنظیم‌کننده‌ها به دنبال درک بهتر مفاهیم حریم خصوصی و امنیت داده‌های برنامه‌های کاربردی هوش مصنوعی در حال ظهور و اجرای استراتژی‌هایی برای محافظت از مصرف‌کنندگان هستند. در یک بیانیه مطبوعاتی.

او هشدار داد که “شرکت های فناوری خود را در نقطه ای می بینند که دیگر نمی توانند مسائل اخلاقی مانند اینها را به سرنوشت خود بسپارند.” “آنچه نیاز است یک رویکرد جامع برای پرداختن به مسئولیت اخلاقی است. شرکت هایی که از این رویکرد پیروی می کنند، به ویژه در زمینه های جدیدتر مانند هوش مصنوعی، می توانند انتظار پذیرش بیشتر، اعتماد بیشتر و افزایش درآمد را داشته باشند.”

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا