تکنولوژی

هوش مصنوعی رایگان از سایه ها، پروفسور آرگو وارتون

هوش مصنوعی رایگان از سایه ها، پروفسور آرگو وارتون

پروفسور دانشکده بازرگانی وارتون یکشنبه در یک پست وبلاگی تاکید کرد که کارگران از ابزارهای هوش مصنوعی برای افزایش بهره وری فردی و در عین حال پایین نگه داشتن فعالیت خود استفاده می کنند، که می تواند به عملکرد کلی سازمان آنها آسیب برساند.

Ethan Mullick در وبلاگ One Useful Thing خود می نویسد: «امروزه میلیاردها نفر به مدل های زبان بزرگ (LLM) و مزایای بهره وری که به همراه دارند دسترسی دارند. و از دهه‌ها تحقیق نوآوری که همه را از لوله‌کش گرفته تا کتابدار و جراح مورد مطالعه قرار می‌دهد، می‌دانیم که وقتی ابزارهای همه منظوره در دسترس قرار می‌گیرند، مردم راه‌هایی برای استفاده از آن‌ها برای آسان‌تر کردن و بهتر کردن کارشان کشف می‌کنند.

او ادامه داد: “اغلب نتایج اختراعات پیشگامانه هستند، روش هایی برای استفاده از هوش مصنوعی که می تواند کسب و کارها را کاملا متحول کند.” مردم کارها را ساده می‌کنند، رویکردهای جدیدی برای کدنویسی ارائه می‌کنند، و بخش‌هایی از مشاغل خود را خودکار می‌کنند که زمان‌بر و خسته‌کننده است. اما مخترعان در مورد اکتشافات خود به شرکت‌های خود نمی‌گویند. آنها سایبورگ‌های مخفی، انسان‌های تقویت‌شده ماشینی هستند که خود را مبدل کنند.»

Mollick اظهار داشت که روش‌های سنتی واکنش سازمان‌ها به فن‌آوری‌های جدید برای هوش مصنوعی به خوبی کار نمی‌کند و تنها راه برای بهره‌مندی یک سازمان از هوش مصنوعی این است که از کمک یک «سایبورگ» استفاده کند و در عین حال کارگران بیشتری را به استفاده از هوش مصنوعی تشویق کند.

Mollick ادعا کرد که نیاز به تغییر عمده در نحوه عملکرد سازمان ها دارد. این تغییرات شامل ادغام هر چه بیشتر سازمان در دستور کار هوش مصنوعی، کاهش نگرانی های مرتبط با استفاده از هوش مصنوعی، ایجاد انگیزه برای کاربران هوش مصنوعی و تشویق دیگران به استفاده از هوش مصنوعی است.

Molik افزود که شرکت ها همچنین باید به سرعت در مورد برخی از سوالات کلیدی عمل کنند. با افزایش بهره وری که ممکن است به دست آورید چه می کنید؟ چگونه کار را سازماندهی مجدد می کنید و فرآیندهایی را که توسط هوش مصنوعی توخالی یا بی فایده شده اند را از بین می برید؟ چگونه کارهایی را که ممکن است شامل خطرات توهم ناشی از هوش مصنوعی و نگرانی های بالقوه مالکیت معنوی باشد، مدیریت و کنترل می کنید؟

اختلال در کسب و کار

بیرون آوردن هوش مصنوعی از سایه ممکن است مفید باشد، اما همچنین می تواند برای سازمان بسیار مخرب باشد.

هوش مصنوعی می تواند بین 30 تا 80 درصد تأثیر مثبتی بر عملکرد داشته باشد. راب اندرل، رئیس و تحلیلگر اصلی گروه Enderle، یک شرکت خدمات مشاوره در Bend، Ore، خاطرنشان کرد: ناگهان کارمند حاشیه‌ای با هوش مصنوعی مولد تبدیل به یک ستاره می‌شود.

او به TechNewsWorld گفت: «اگر هوش مصنوعی مولد در معرض خطر قرار نگیرد، می‌تواند سؤالاتی را در مورد اینکه آیا کارمند تقلب می‌کند یا اینکه قبلاً سست شده‌اند، ایجاد می‌کند.

اندرل افزود: “بخش محرمانه بودن آنقدر مخل نیست که می تواند هم برای مدیر و هم برای کارمند مشکل ساز باشد، به خصوص اگر شرکت هنوز سیاستی در مورد استفاده و افشای هوش مصنوعی ایجاد نکرده باشد.”

شان سوربر، مدیر ارشد مدیریت حساب فنی در Tanium، ارائه‌دهنده مدیریت نقطه پایانی همگرا، در کرکلند، واشنگتن، گفت: استفاده از هوش مصنوعی می‌تواند دید غیرواقعی از دانش یا توانایی یک کارمند ایجاد کند که می‌تواند منجر به انتظارات خطرناک در آینده شود.


او مثال زد که یک کارمند از هوش مصنوعی برای نوشتن گزارشی جامع در مورد موضوعی استفاده می کند که در آن تخصص عمیقی ندارند. او به TechNewsWorld گفت: “یک سازمان ممکن است آنها را به عنوان متخصص ببیند، اما در واقع آنها از هوش مصنوعی برای نوشتن یک گزارش استفاده کردند.”

Sorber اضافه کرد که اگر کارمندی از هوش مصنوعی برای تولید کد یا پردازش اسنادی که مستقیماً به سیستم‌های سازمانی تغذیه می‌شوند، استفاده کند، ممکن است مشکلاتی ایجاد شود. او توضیح داد: «مدل‌های زبان بزرگ هوش مصنوعی در تولید حجم عظیمی از اطلاعات عالی هستند، اما اگر به دقت بررسی نشود، می‌تواند منجر به مشکلات سیستمی یا حتی مشکلات قانونی برای سازمان شود».

استفاده بی رویه از هوش مصنوعی

جان بامپنیک، شکارچی اصلی تهدید در Netenrich، یک شرکت عملیاتی امنیت دیجیتال و فناوری اطلاعات در سن خوزه، کالیفرنیا، گفت: هنگامی که به خوبی استفاده شود، بهره وری ذاتاً بدون اخلال به کارگران افزایش می یابد.

او به TechNewsWorld گفت: «این استفاده بی‌دیده از هوش مصنوعی است که می‌تواند برای کارگران آزاردهنده باشد، صرفاً بررسی نکردن نتایج این ابزارها و فیلتر کردن پاسخ‌های غیر حساس.

کریگ جونز، معاون عملیات امنیتی در Ontinue، یک ارائه‌دهنده تشخیص و پاسخ مدیریت شده در شهر Redwood، کالیفرنیا، اضافه کرد که درک منطق پشت نتایج مولد هوش مصنوعی اغلب به دانش تخصصی نیاز دارد.

او به TechNewsWorld گفت: “اگر این نتایج کورکورانه هدایت شوند، می تواند منجر به استراتژی های نادرست، سوگیری ها یا ابتکارات ناکارآمد شود.”

جونز اظهار داشت که استفاده مخفیانه از هوش مصنوعی می تواند محیطی از ناسازگاری و غیرقابل پیش بینی را در سازمان ایجاد کند. گفت «مثلا». “اگر یک فرد یا تیم از هوش مصنوعی برای ساده کردن وظایف یا افزایش تجزیه و تحلیل داده ها استفاده کند، عملکرد آنها ممکن است به طور قابل توجهی توسط کسانی که از منابع مشابه استفاده نمی کنند تحت فشار قرار گیرد و منجر به نتایج عملکرد نابرابر شود.”

علاوه بر این، وی ادامه داد، استفاده از هوش مصنوعی بدون آگاهی مدیریتی می تواند معضلات اخلاقی و قانونی جدی را به ویژه در بخش هایی مانند منابع انسانی یا مالی ایجاد کند. برنامه‌های هوش مصنوعی بدون نظارت می‌توانند سوگیری‌ها را تداوم بخشند یا سهواً الزامات نظارتی را نقض کنند.

ممنوعیت هوش مصنوعی راه حلی نیست

هر چقدر هم که هوش مصنوعی مختل کننده باشد، ممنوعیت استفاده از آن توسط کارگران احتمالا بهترین اقدام نیست. از آنجایی که «هوش مصنوعی افزایش بهره‌وری را از 30 درصد به 80 درصد افزایش می‌دهد»، اندرل تکرار کرد، «ممنوع کردن این ابزار در واقع باعث می‌شود شرکت نتواند با همتایان خود که از فناوری استفاده می‌کنند و به درستی از آن استفاده می‌کنند، رقابت کند.»

وی افزود: این یک ابزار موثر است. “به خطر شما آن را نادیده بگیرید.”


جک ای. گلد، بنیانگذار و تحلیلگر اصلی در J. Gold Associates، یک شرکت مشاوره فناوری اطلاعات، در Northborough، ماساچوست، اشاره کرد.

او به TechNewsWorld گفت: “ما یک نظرسنجی از کاربران تجاری انجام دادیم که پرسیدیم آیا شرکت های آنها سیاستی در مورد استفاده از هوش مصنوعی دارند یا خیر، و 75٪ از شرکت ها پاسخ منفی دادند.”

او گفت: «بنابراین اگر نگران لو رفتن اطلاعات خود هستید، اولین کاری که می‌خواهید انجام دهید، ایجاد یک سیاست است. اگر سیاستی وجود نداشته باشد، نمی توانید بر سر مردم فریاد بزنید که از سیاست پیروی نمی کنند.

نشت داده ها می تواند یک خطر امنیتی بزرگ در هنگام استفاده از برنامه های کاربردی هوش مصنوعی باشد. اریک کرون، مدافع آگاهی امنیتی در KnowBe4، ارائه‌دهنده آموزش آگاهی امنیتی در کلیرواتر، فلوریدا، توضیح داد: «بسیاری از خطرات امنیتی ناشی از هوش مصنوعی ناشی از اطلاعاتی است که افراد در آن قرار می‌دهند.

او به TechNewsWorld گفت: درک این نکته مهم است که اطلاعات در درجه اول برای این اشخاص ثالث آپلود شده و توسط هوش مصنوعی پردازش می شود. اگر مردم به اطلاعات حساس، اطلاعات قابل شناسایی شخصی یا مالکیت معنوی که در اختیار هوش مصنوعی قرار می دهند فکر نکنند، این می تواند مشکل مهمی باشد.

Mollick در وبلاگ خود اشاره کرد که هوش مصنوعی در حال حاضر وجود دارد و در بسیاری از صنایع و زمینه ها تأثیر دارد. او نوشت: «بنابراین، برای ملاقات با سایبورگ‌های خود آماده شوید و با آنها کار کنید تا سازمانی جدید و بهتر برای عصر هوش مصنوعی ما ایجاد کنید.»

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا