هوش مصنوعی رایگان از سایه ها، پروفسور آرگو وارتون
هوش مصنوعی رایگان از سایه ها، پروفسور آرگو وارتون
پروفسور دانشکده بازرگانی وارتون یکشنبه در یک پست وبلاگی تاکید کرد که کارگران از ابزارهای هوش مصنوعی برای افزایش بهره وری فردی و در عین حال پایین نگه داشتن فعالیت خود استفاده می کنند، که می تواند به عملکرد کلی سازمان آنها آسیب برساند.
Ethan Mullick در وبلاگ One Useful Thing خود می نویسد: «امروزه میلیاردها نفر به مدل های زبان بزرگ (LLM) و مزایای بهره وری که به همراه دارند دسترسی دارند. و از دههها تحقیق نوآوری که همه را از لولهکش گرفته تا کتابدار و جراح مورد مطالعه قرار میدهد، میدانیم که وقتی ابزارهای همه منظوره در دسترس قرار میگیرند، مردم راههایی برای استفاده از آنها برای آسانتر کردن و بهتر کردن کارشان کشف میکنند.
او ادامه داد: “اغلب نتایج اختراعات پیشگامانه هستند، روش هایی برای استفاده از هوش مصنوعی که می تواند کسب و کارها را کاملا متحول کند.” مردم کارها را ساده میکنند، رویکردهای جدیدی برای کدنویسی ارائه میکنند، و بخشهایی از مشاغل خود را خودکار میکنند که زمانبر و خستهکننده است. اما مخترعان در مورد اکتشافات خود به شرکتهای خود نمیگویند. آنها سایبورگهای مخفی، انسانهای تقویتشده ماشینی هستند که خود را مبدل کنند.»
Mollick اظهار داشت که روشهای سنتی واکنش سازمانها به فنآوریهای جدید برای هوش مصنوعی به خوبی کار نمیکند و تنها راه برای بهرهمندی یک سازمان از هوش مصنوعی این است که از کمک یک «سایبورگ» استفاده کند و در عین حال کارگران بیشتری را به استفاده از هوش مصنوعی تشویق کند.
Mollick ادعا کرد که نیاز به تغییر عمده در نحوه عملکرد سازمان ها دارد. این تغییرات شامل ادغام هر چه بیشتر سازمان در دستور کار هوش مصنوعی، کاهش نگرانی های مرتبط با استفاده از هوش مصنوعی، ایجاد انگیزه برای کاربران هوش مصنوعی و تشویق دیگران به استفاده از هوش مصنوعی است.
Molik افزود که شرکت ها همچنین باید به سرعت در مورد برخی از سوالات کلیدی عمل کنند. با افزایش بهره وری که ممکن است به دست آورید چه می کنید؟ چگونه کار را سازماندهی مجدد می کنید و فرآیندهایی را که توسط هوش مصنوعی توخالی یا بی فایده شده اند را از بین می برید؟ چگونه کارهایی را که ممکن است شامل خطرات توهم ناشی از هوش مصنوعی و نگرانی های بالقوه مالکیت معنوی باشد، مدیریت و کنترل می کنید؟
اختلال در کسب و کار
بیرون آوردن هوش مصنوعی از سایه ممکن است مفید باشد، اما همچنین می تواند برای سازمان بسیار مخرب باشد.
هوش مصنوعی می تواند بین 30 تا 80 درصد تأثیر مثبتی بر عملکرد داشته باشد. راب اندرل، رئیس و تحلیلگر اصلی گروه Enderle، یک شرکت خدمات مشاوره در Bend، Ore، خاطرنشان کرد: ناگهان کارمند حاشیهای با هوش مصنوعی مولد تبدیل به یک ستاره میشود.
او به TechNewsWorld گفت: «اگر هوش مصنوعی مولد در معرض خطر قرار نگیرد، میتواند سؤالاتی را در مورد اینکه آیا کارمند تقلب میکند یا اینکه قبلاً سست شدهاند، ایجاد میکند.
اندرل افزود: “بخش محرمانه بودن آنقدر مخل نیست که می تواند هم برای مدیر و هم برای کارمند مشکل ساز باشد، به خصوص اگر شرکت هنوز سیاستی در مورد استفاده و افشای هوش مصنوعی ایجاد نکرده باشد.”
شان سوربر، مدیر ارشد مدیریت حساب فنی در Tanium، ارائهدهنده مدیریت نقطه پایانی همگرا، در کرکلند، واشنگتن، گفت: استفاده از هوش مصنوعی میتواند دید غیرواقعی از دانش یا توانایی یک کارمند ایجاد کند که میتواند منجر به انتظارات خطرناک در آینده شود.
او مثال زد که یک کارمند از هوش مصنوعی برای نوشتن گزارشی جامع در مورد موضوعی استفاده می کند که در آن تخصص عمیقی ندارند. او به TechNewsWorld گفت: “یک سازمان ممکن است آنها را به عنوان متخصص ببیند، اما در واقع آنها از هوش مصنوعی برای نوشتن یک گزارش استفاده کردند.”
Sorber اضافه کرد که اگر کارمندی از هوش مصنوعی برای تولید کد یا پردازش اسنادی که مستقیماً به سیستمهای سازمانی تغذیه میشوند، استفاده کند، ممکن است مشکلاتی ایجاد شود. او توضیح داد: «مدلهای زبان بزرگ هوش مصنوعی در تولید حجم عظیمی از اطلاعات عالی هستند، اما اگر به دقت بررسی نشود، میتواند منجر به مشکلات سیستمی یا حتی مشکلات قانونی برای سازمان شود».
استفاده بی رویه از هوش مصنوعی
جان بامپنیک، شکارچی اصلی تهدید در Netenrich، یک شرکت عملیاتی امنیت دیجیتال و فناوری اطلاعات در سن خوزه، کالیفرنیا، گفت: هنگامی که به خوبی استفاده شود، بهره وری ذاتاً بدون اخلال به کارگران افزایش می یابد.
او به TechNewsWorld گفت: «این استفاده بیدیده از هوش مصنوعی است که میتواند برای کارگران آزاردهنده باشد، صرفاً بررسی نکردن نتایج این ابزارها و فیلتر کردن پاسخهای غیر حساس.
کریگ جونز، معاون عملیات امنیتی در Ontinue، یک ارائهدهنده تشخیص و پاسخ مدیریت شده در شهر Redwood، کالیفرنیا، اضافه کرد که درک منطق پشت نتایج مولد هوش مصنوعی اغلب به دانش تخصصی نیاز دارد.
او به TechNewsWorld گفت: “اگر این نتایج کورکورانه هدایت شوند، می تواند منجر به استراتژی های نادرست، سوگیری ها یا ابتکارات ناکارآمد شود.”
جونز اظهار داشت که استفاده مخفیانه از هوش مصنوعی می تواند محیطی از ناسازگاری و غیرقابل پیش بینی را در سازمان ایجاد کند. گفت «مثلا». “اگر یک فرد یا تیم از هوش مصنوعی برای ساده کردن وظایف یا افزایش تجزیه و تحلیل داده ها استفاده کند، عملکرد آنها ممکن است به طور قابل توجهی توسط کسانی که از منابع مشابه استفاده نمی کنند تحت فشار قرار گیرد و منجر به نتایج عملکرد نابرابر شود.”
علاوه بر این، وی ادامه داد، استفاده از هوش مصنوعی بدون آگاهی مدیریتی می تواند معضلات اخلاقی و قانونی جدی را به ویژه در بخش هایی مانند منابع انسانی یا مالی ایجاد کند. برنامههای هوش مصنوعی بدون نظارت میتوانند سوگیریها را تداوم بخشند یا سهواً الزامات نظارتی را نقض کنند.
ممنوعیت هوش مصنوعی راه حلی نیست
هر چقدر هم که هوش مصنوعی مختل کننده باشد، ممنوعیت استفاده از آن توسط کارگران احتمالا بهترین اقدام نیست. از آنجایی که «هوش مصنوعی افزایش بهرهوری را از 30 درصد به 80 درصد افزایش میدهد»، اندرل تکرار کرد، «ممنوع کردن این ابزار در واقع باعث میشود شرکت نتواند با همتایان خود که از فناوری استفاده میکنند و به درستی از آن استفاده میکنند، رقابت کند.»
وی افزود: این یک ابزار موثر است. “به خطر شما آن را نادیده بگیرید.”
جک ای. گلد، بنیانگذار و تحلیلگر اصلی در J. Gold Associates، یک شرکت مشاوره فناوری اطلاعات، در Northborough، ماساچوست، اشاره کرد.
او به TechNewsWorld گفت: “ما یک نظرسنجی از کاربران تجاری انجام دادیم که پرسیدیم آیا شرکت های آنها سیاستی در مورد استفاده از هوش مصنوعی دارند یا خیر، و 75٪ از شرکت ها پاسخ منفی دادند.”
او گفت: «بنابراین اگر نگران لو رفتن اطلاعات خود هستید، اولین کاری که میخواهید انجام دهید، ایجاد یک سیاست است. اگر سیاستی وجود نداشته باشد، نمی توانید بر سر مردم فریاد بزنید که از سیاست پیروی نمی کنند.
نشت داده ها می تواند یک خطر امنیتی بزرگ در هنگام استفاده از برنامه های کاربردی هوش مصنوعی باشد. اریک کرون، مدافع آگاهی امنیتی در KnowBe4، ارائهدهنده آموزش آگاهی امنیتی در کلیرواتر، فلوریدا، توضیح داد: «بسیاری از خطرات امنیتی ناشی از هوش مصنوعی ناشی از اطلاعاتی است که افراد در آن قرار میدهند.
او به TechNewsWorld گفت: درک این نکته مهم است که اطلاعات در درجه اول برای این اشخاص ثالث آپلود شده و توسط هوش مصنوعی پردازش می شود. اگر مردم به اطلاعات حساس، اطلاعات قابل شناسایی شخصی یا مالکیت معنوی که در اختیار هوش مصنوعی قرار می دهند فکر نکنند، این می تواند مشکل مهمی باشد.
Mollick در وبلاگ خود اشاره کرد که هوش مصنوعی در حال حاضر وجود دارد و در بسیاری از صنایع و زمینه ها تأثیر دارد. او نوشت: «بنابراین، برای ملاقات با سایبورگهای خود آماده شوید و با آنها کار کنید تا سازمانی جدید و بهتر برای عصر هوش مصنوعی ما ایجاد کنید.»