تکنولوژی

OpenAI Exec لیست نیازهای هوش مصنوعی را تشخیص می دهد

OpenAI Exec لیست نیازهای هوش مصنوعی را تشخیص می دهد

میرا موراتی، مدیر ارشد فناوری OpenAI، روز یکشنبه در مصاحبه ای با مجله تایم اعتراف کرد که این فناوری نیاز به تنظیم مقررات دارد.

موراتی به تایم گفت: «برای OpenAI و شرکت‌هایی مانند ما مهم است که این موضوع را به شیوه‌ای قابل مدیریت و مسئولانه به آگاهی عمومی بیاورند. “اما ما گروه کوچکی از مردم هستیم و به ورودی های زیادی در این سیستم و ورودی های بسیار بیشتری فراتر از فناوری ها نیاز داریم – قطعاً تنظیم کننده ها، دولت ها و هر کس دیگری.”

وقتی از او پرسیده شد که آیا مداخله دولت در این مرحله از توسعه هوش مصنوعی ممکن است مانع نوآوری شود، او پاسخ داد: “هنوز زود نیست. بسیار مهم است که همه شروع به مشارکت کنند، با توجه به تاثیری که این فناوری ها خواهند داشت.”

گرگ استرلینگ، یکی از بنیانگذاران Near Media، یک وب‌سایت خبری، تفسیری و تحلیلی، معتقد است از آنجایی که بازار مشوق‌هایی برای سوءاستفاده فراهم می‌کند، احتمالاً برخی مقررات ضروری است.

استرلینگ به TechNewsWorld گفت: «موقعیت‌های ایجاد شده با دقت در برابر رفتارهای غیراخلاقی می‌تواند سوءاستفاده بالقوه از هوش مصنوعی را کاهش دهد، اما مقررات نیز می‌توانند ضعیف وضع شوند و مانع از هر یک از آن‌ها نشوند.

او اذعان کرد که مقررات خیلی زودهنگام یا خیلی سخت می تواند به نوآوری آسیب برساند و مزایای هوش مصنوعی را محدود کند.

استرلینگ گفت: “دولت ها باید کارشناسان هوش مصنوعی و رهبران صنعت را گرد هم بیاورند تا چارچوبی برای مقررات احتمالی آینده ارائه دهند. احتمالاً باید در حوزه بین المللی باشد.”

قوانین فعلی را در نظر بگیرید

جنیفر هادلستون، محقق سیاست فناوری در موسسه کاتو، در واشنگتن دی سی، توضیح داد که مانند بسیاری از فناوری ها و ابزارها، هوش مصنوعی نیز مانند بسیاری از فناوری ها و ابزارها، می تواند برای اهداف مختلف مورد استفاده قرار گیرد.

او ادامه داد که بسیاری از این استفاده‌ها مثبت هستند و مصرف‌کنندگان در حال حاضر استفاده‌های مفیدی از هوش مصنوعی مانند ترجمه بلادرنگ و ناوبری ترافیک بهتر را تجربه می‌کنند. هادلستون به TechNewsWorld گفت: «قبل از درخواست برای مقررات جدید، سیاستگذاران باید در نظر بگیرند که قوانین موجود در مورد موضوعاتی مانند تبعیض، در واقع به نگرانی‌ها رسیدگی می‌کنند».


میسون کورتز، مدرس بالینی در کلینیک Cyberlaw در دانشکده حقوق هاروارد در کمبریج، ماساچوست، افزود: هوش مصنوعی باید تنظیم شود، اما نحوه تنظیم واقعی آن نیز باید در نظر گرفته شود.

کورتز به TechNewsWorld گفت: “ما قوانین کلی زیادی داریم که کارها را قانونی یا غیرقانونی می کند، صرف نظر از اینکه این کار توسط یک انسان یا یک هوش مصنوعی انجام شود.”

او گفت: “ما باید راه هایی را بررسی کنیم که قوانین موجود از قبل برای تنظیم هوش مصنوعی کافی است و از چه راه هایی نیازی به انجام کار جدید و خلاقیت ندارند.”

به عنوان مثال، وی خاطرنشان کرد که هیچ مقررات کلی در مورد مسئولیت خودروهای خودران وجود ندارد. با این حال، اگر وسیله نقلیه خودران باعث تصادف شود، هنوز زمینه های زیادی از قانون وجود دارد که باید به آنها اشاره کرد، مانند قانون سهل انگاری و قانون مسئولیت محصول. او توضیح داد که اینها راه های بالقوه ای برای تنظیم این استفاده از هوش مصنوعی هستند.

یک لمس سبک لازم است

کورتز اذعان کرد، با این حال، بسیاری از قوانین موجود پس از این واقعیت به اجرا در می آیند. او گفت: «بنابراین، به نوعی، آنها در رتبه دوم قرار دارند. اما این رویه مهمی است که باید هنگام تدوین مقررات رعایت شود.»

وی افزود: ما باید تلاش کنیم تا هر جا که می توانیم در سازماندهی فعال باشیم. رجوع به نظام حقوقی بعد از وارد شدن ضرر انجام می شود، بهتر است آسیب هرگز اتفاق نیفتد.»

با این حال، Mark N. Vena، رئیس و تحلیلگر اصلی SmartTech Research در سن خوزه، کالیفرنیا، استدلال می کند که مقررات سختگیرانه می تواند صنعت در حال رشد هوش مصنوعی را سرکوب کند.

ونا به TechNewsWorld گفت: «در این مرحله اولیه، من طرفدار جدی مقررات دولتی هوش مصنوعی نیستم. هوش مصنوعی می تواند فواید زیادی داشته باشد و مداخله دولت ممکن است در نهایت آنها را خفه کند.


او مدعی شد که این نوع اثر خفه کننده در اینترنت در دهه 1990 از طریق مقررات “لمس ملایم” مانند بخش 230 قانون نجابت ارتباطات، که به پلتفرم های آنلاین از مسئولیت محتوای شخص ثالث که در وب سایت های آنها ظاهر می شود مصونیت می بخشد، جلوگیری شد. .

با این حال، کورتز معتقد است که دولت می تواند به طور منطقی چیزی را بدون تعطیل کردن صنعت فشار دهد.

او گفت: “مردم از FDA انتقاد می کنند، زیرا این سازمان تحت فشارهای نظارتی قرار دارد و توسط شرکت های دارویی اداره می شود، اما ما هنوز در دنیایی بهتر از قبل از FDA هستیم، جایی که هر کسی می تواند هر چیزی را بفروشد و هر چیزی را روی برچسب بگذارد.”

وینا ادامه داد: “آیا راه حل خوبی وجود دارد که فقط جنبه های خوب هوش مصنوعی را به تصویر بکشد و تمام جنبه های بد را متوقف کند؟ احتمالاً نه، اما برخی ساختارها بهتر از بدون ساختار است.”

او افزود: «اجازه دادن به هوش مصنوعی خوب و هوش مصنوعی بد برای بیرون راندن آنها به کسی کمک نمی کند. ما نمی‌توانیم تضمین کنیم که یک هوش مصنوعی خوب در این نبرد پیروز خواهد شد و آسیب‌های جانبی می‌تواند بسیار بزرگ باشد.»

تنظیم بدون خفه

دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست عمومی، در واشنگتن دی سی، خاطرنشان کرد: سیاست‌گذاران می‌توانند کارهایی را برای تنظیم هوش مصنوعی بدون خفه کردن نوآوری انجام دهند.

کاسترو به TechNewsWorld گفت: «اولین مورد تمرکز بر موارد استفاده خاص است. به عنوان مثال، مقررات مربوط به خودروهای خودران باید متفاوت از مقررات هوش مصنوعی مورد استفاده برای تولید موسیقی باشد.

وی ادامه داد: دیگری این است که بر رفتارها تمرکز کنیم. برای مثال، تبعیض قائل شدن در هنگام استخدام کارمندان یا اجاره آپارتمان غیرقانونی است – چه تصمیمی انسانی باشد یا یک سیستم هوش مصنوعی که این تصمیم را گرفته باشد.»

وی افزود: «اما سیاست گذاران باید مراقب باشند که هوش مصنوعی را با استانداردهای غیرمنصفانه متفاوتی قرار ندهند یا مقرراتی ایجاد نکنند که برای هوش مصنوعی بی معنی است. به عنوان مثال، برخی از الزامات ایمنی در وسایل نقلیه امروزی، مانند فرمان و آینه های دید عقب، برای وسایل نقلیه خودران که مسافر یا راننده ندارند، منطقی نیست.


وینا مایل است رویکردی «شفاف» به مقررات داشته باشد.

او گفت: «من مقرراتی را ترجیح می‌دهم که توسعه‌دهندگان و تولیدکنندگان محتوا را ملزم می‌کند که در مورد الگوریتم‌هایی که استفاده می‌کنند کاملاً شفاف باشند. ممکن است توسط یک نهاد شخص ثالث متشکل از دانشگاهیان و برخی از نهادهای تجاری بررسی شود.

او تاکید کرد: «شفافیت در مورد الگوریتم‌ها و منابع محتوای مشتق‌شده از ابزارهای هوش مصنوعی باید تعادل را تشویق کند و سوءاستفاده را محدود کند».

برنامه ریزی برای بدترین سناریو

کورتز خاطرنشان کرد که بسیاری از مردم فکر می کنند فناوری خنثی است.

او گفت: «فکر نمی‌کنم فناوری خنثی باشد. ما باید به بازیگران بد فکر کنیم، اما همچنین باید به تصمیمات بدی که توسط افرادی که این چیزها را می‌سازند و آنها را به دنیا معرفی می‌کنند، فکر کنیم.»

او در پایان گفت: «من هر کسی را که هوش مصنوعی را برای یک مورد خاص توسعه می‌دهد تشویق می‌کنم که نه تنها کاربرد مورد نظر را در نظر بگیرد، بلکه بدترین استفاده ممکن از فناوری خود را نیز در نظر بگیرد.»

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا