تکنولوژی

انقلاب هوش مصنوعی در نقطه عطفی قرار دارد

انقلاب هوش مصنوعی در نقطه عطفی قرار دارد

برخی از خودی‌ها می‌خواهند توسعه مداوم سیستم‌های هوش مصنوعی را قبل از اینکه مسیرهای عصبی یادگیری ماشین با اهداف استفاده از خالقان انسانی درگیر شود، متوقف کنند. دیگر کارشناسان کامپیوتر استدلال می کنند که دام ها اجتناب ناپذیر هستند و توسعه باید ادامه یابد.

بیش از 1000 فن‌شناس و صاحب نظر هوش مصنوعی اخیرا طوماری را امضا کرده‌اند که از صنعت محاسبات خواسته است تا شش ماه تاخیر در آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 داشته باشد. حامیان از توسعه دهندگان هوش مصنوعی می خواهند که استانداردهای ایمنی ایجاد کنند و خطرات احتمالی ناشی از فناوری های هوش مصنوعی پرخطر را کاهش دهند.

موسسه غیرانتفاعی Future of Life این طومار را سازماندهی کرد و خواستار توقف عمومی تقریباً فوری و قابل تأیید توسط همه توسعه دهندگان بزرگ شد. در غیر این صورت، دولت ها باید وارد عمل شوند و ممنوعیت هایی را اعمال کنند. از این هفته، موسسه آینده زندگی می گوید که بیش از 50000 امضا جمع آوری کرده است که مشمول فرآیند بررسی هستند.

این پیام تلاشی برای توقف توسعه هوش مصنوعی به طور کلی نیست. در عوض، حامیان آن از توسعه‌دهندگان می‌خواهند که از رقابت خطرناک «به سمت مدل‌های جعبه سیاه بزرگتر و غیرقابل پیش‌بینی با قابلیت‌های نوظهور» عقب‌نشینی کنند. در طول زمان استراحت، آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل باید مجموعه‌ای از پروتکل‌های ایمنی مشترک را برای طراحی و توسعه هوش مصنوعی پیشرفته ایجاد و پیاده‌سازی کنند.

در این نامه آمده است: “تحقیق و توسعه هوش مصنوعی باید بر روی دقیق تر، ایمن تر، قابل تفسیر تر، شفاف تر، قوی تر، سازگار تر، قابل اعتماد تر و وفادار تر کردن سیستم های قوی و مدرن امروزی متمرکز شود.”

پشتیبانی جهانی نیست

جان بامپنیک، شکارچی اصلی تهدید در شرکت تجزیه و تحلیل امنیتی و عملیاتی Netenrich، پیشنهاد کرد که هیچ کس هرگز چیزی را متوقف نخواهد کرد. با این حال، او آگاهی رو به رشدی را می بیند که توجه به پیامدهای اخلاقی پروژه های هوش مصنوعی از سرعت توسعه بسیار عقب است.

بامبینیک به TechNewsWorld گفت: «من فکر می‌کنم خوب است که آنچه را که انجام می‌دهیم و تأثیرات عمیقی که خواهد داشت، ارزیابی کنیم، زیرا قبلاً شاهد شکست‌های خیره‌کننده‌ای در مورد استقرار AI/ML بوده‌ایم.

اندرو بارت، معاون شرکت خدمات مشاوره امنیت سایبری Coalfire، افزود: هر کاری که ما برای متوقف کردن چیزها در هوش مصنوعی انجام می دهیم، احتمالا فقط سر و صدا است. همچنین انجام این کار در سطح جهانی به صورت هماهنگ غیرممکن است.


هوش مصنوعی عاملی برای بهره وری برای نسل های آینده خواهد بود. خطر این است که آنها را به جای موتورهای جستجو و سپس کسب درآمد توسط تبلیغ کنندگانی که “هوشمندانه” محصولات خود را در پاسخ ها قرار می دهند، مشاهده کنید. بارت به TechNewsWorld گفت: آنچه جالب است این است که به نظر می رسد افزایش ترس از زمان آخرین میزان علاقه ای که برای ChatGPT اعمال شد آغاز شده است.

به جای توقف، بارت توصیه می‌کند که کارکنان دانش در سراسر جهان را تشویق کنند تا بهترین روش استفاده از ابزارهای هوش مصنوعی مختلف را که برای کمک به ارائه بهره‌وری مصرف‌کننده‌تر می‌شوند، در نظر بگیرند. کسانی که این کار را نکنند، عقب خواهند ماند.

به گفته دیو گری، مدیر عامل شرکت امنیت سایبری جمع سپاری Bugcrowd، امنیت و حفظ حریم خصوصی باید برای هر شرکت فناوری مهم‌ترین نگرانی باقی بماند، صرف نظر از اینکه روی هوش مصنوعی تمرکز کنند یا خیر. وقتی صحبت از هوش مصنوعی به میان می‌آید، اطمینان از اینکه مدل دارای پادمان‌های لازم، یک حلقه بازخورد و مکانیزمی برای برجسته کردن نگرانی‌های ایمنی است، بسیار مهم است.

از آنجایی که سازمان‌ها به سرعت هوش مصنوعی را برای افزایش بهره‌وری، بهره‌وری و دموکراسی‌سازی مزایای داده‌ها اتخاذ می‌کنند، مهم است که اطمینان حاصل شود که وقتی نگرانی‌ها شناسایی می‌شوند، مکانیزم گزارش‌دهی برای آشکار کردن این نگرانی‌ها وجود دارد، به همان روشی که آسیب‌پذیری‌های امنیتی شناسایی می‌شوند. جری به TechNewsWorld گفت.

نگرانی های مشروع را برجسته کنید

آنتونی فیگوروآ، کارشناس یادگیری ماشینی، یکی از بنیانگذاران و مدیر ارشد فناوری شرکت توسعه نرم‌افزار مبتنی بر نتایج Rootstrap، در پاسخی معمولی فزاینده به نیاز به تنظیم هوش مصنوعی، از نظارت بر هوش مصنوعی پشتیبانی می‌کند، اما تردید در توقف توسعه آن منجر به تغییرات معناداری خواهد شد.

Figueroa از داده های بزرگ و یادگیری ماشینی برای کمک به شرکت ها برای ایجاد راه حل های نوآورانه برای کسب درآمد از خدمات خود استفاده می کند. اما او تردید دارد که تنظیم کننده ها با سرعت مناسب حرکت کنند و پیامدهای آنچه را که باید تنظیم کنند را درک کنند. او این چالش را شبیه به چالشی می‌داند که دو دهه پیش در رسانه‌های اجتماعی مطرح شد.


به نظر من پیامی که آنها نوشتند مهم است. ما در نقطه اوج هستیم و باید به پیشرفت هایی که قبلاً نداشته ایم فکر کنیم. فکر نمی‌کنم مکث کردن چیزی برای شش ماه، یک سال، دو سال یا یک دهه ممکن باشد.

ناگهان، هر چیزی که توسط هوش مصنوعی ساخته می شود، چیز بزرگ بعدی جهانی است. موفقیت به معنای واقعی کلمه یک شبه محصول OpenAI ChatGPT باعث شد که جهان ناگهان بایستد و به قدرت و پتانسیل عظیم فناوری‌های هوش مصنوعی و یادگیری ماشین توجه کند.

ما هنوز پیامدهای آن فناوری را نمی دانیم. خطرات آن چیست؟ ما برخی از چیزهایی را می دانیم که ممکن است با این شمشیر دو لبه اشتباه پیش برود.

آیا هوش مصنوعی نیاز به تنظیم دارد؟

TechNewsWorld با Anthony Figueroa در مورد مسائل مربوط به نیاز به کنترل‌های توسعه‌دهنده برای یادگیری ماشین و نیاز بالقوه به مقررات دولتی هوش مصنوعی بحث کرد.

TechNewsWorld: در صنعت محاسبات، چه دستورالعمل‌ها و اخلاقیاتی وجود دارد که ایمن در مسیر باقی بمانند؟

آنتونی فیگوئرا: شما به مجموعه اخلاق شخصی خود در ذهن خود نیاز دارید. اما حتی در این صورت هم می توانید عواقب ناخواسته زیادی داشته باشید. برای مثال، کاری که ما با این فناوری جدید، ChatGPT انجام می دهیم، این است که هوش مصنوعی را در معرض حجم زیادی از داده ها قرار می دهد.

این داده ها از منابع عمومی و خصوصی و چیزهای مختلف می آید. ما از فناوری به نام یادگیری عمیق استفاده می کنیم که اساس آن در مطالعه نحوه عملکرد مغز ما است.

این چگونه بر استفاده از اخلاق و دستورالعمل ها تأثیر می گذارد؟

فیگوروآ: گاهی اوقات، ما حتی نمی‌دانیم که چگونه هوش مصنوعی یک مشکل را به روشی خاص حل می‌کند. ما فرآیند فکری در اکوسیستم هوش مصنوعی را درک نمی کنیم. به این مفهوم مفهومی به نام تفسیرپذیری را اضافه کنید. شما باید بتوانید تعیین کنید که چگونه تصمیم گرفته می شود. اما با هوش مصنوعی، این موضوع همیشه قابل توضیح نیست و نتایج متفاوتی دارد.

تفاوت این عوامل با هوش مصنوعی چیست؟

فیگوروآ: هوش مصنوعی قابل توضیح کمی قدرت کمتری دارد زیرا محدودیت های بیشتری دارید، اما باز هم یک سوال اخلاقی دارید.

به عنوان مثال، پزشکانی را در نظر بگیرید که یک مورد سرطان را درمان می کنند. آنها درمان های زیادی در دسترس دارند. یکی از سه دارو کاملاً قابل توضیح است و به بیمار 60 درصد شانس بهبودی می دهد. سپس آنها یک درمان غیرقابل توضیح دارند که بر اساس داده های تاریخی، 80٪ احتمال درمان دارد، اما آنها واقعاً نمی دانند چرا.

این ترکیب از داروها به همراه DNA بیمار و سایر عوامل بر نتیجه تأثیر می گذارد. پس بیمار باید چه بخورد؟ می دانید، تصمیم سختی است.

شما «هوش» را از نظر توسعه هوش مصنوعی چگونه تعریف می کنید؟

فیگوروآ: ما می توانیم هوش را توانایی حل مشکلات تعریف کنیم. کامپیوترها مسائل را به روشی بسیار متفاوت از مردم حل می کنند. ما آنها را با ترکیب وجدان و هوش حل می کنیم، که به ما توانایی احساس چیزها و حل مشکلات را با هم می دهد.

هوش مصنوعی مشکلات را با تمرکز بر نتایج حل خواهد کرد. یک مثال معمولی خودروهای خودران است. اگر همه نتایج بد باشند چه؟


یک خودروی خودران از بین همه نتایج ممکن کمترین بد را انتخاب می کند. اگر هوش مصنوعی مجبور است یک مانور ناوبری را انتخاب کند که «راننده مسافر» را بکشد یا دو نفر را در گذرگاه جاده در چراغ قرمز بکشد، می‌توانید از هر دو طرف قضیه را مطرح کنید.

می توانید کاری کنید که عابران پیاده اشتباه کرده باشند. بنابراین هوش مصنوعی یک قضاوت اخلاقی می کند و می گوید بیایید واکرها را بکشیم. یا هوش مصنوعی می‌تواند بگوید بیایید سعی کنیم تا حد امکان کمتر مردم را بکشیم. پاسخ درستی وجود ندارد.

در مورد مسائل مربوط به مقررات چطور؟

فیگوروآ: به نظر من هوش مصنوعی باید تنظیم شود. تا زمانی که ارزیابی شفافی از سازمان نداشته باشیم، می توان جلوی توسعه یا نوآوری را گرفت. ما آن را نخواهیم گرفت. ما دقیقاً نمی دانیم که چه چیزی را تنظیم می کنیم یا مقررات چگونه اعمال می شود. بنابراین ما باید روش جدیدی برای سازماندهی ابداع کنیم.

یکی از چیزهایی که توسعه دهندگان OpenAI در آن خوب هستند، ساختن فناوری خود در یک دید ساده است. توسعه دهندگان می توانند تا دو سال دیگر روی فناوری خود کار کنند و فناوری پیچیده تری ارائه دهند. اما آنها تصمیم گرفتند هک فعلی را در معرض دید جهانیان قرار دهند تا مردم بتوانند به فکر مقررات و اینکه چه نوع مقرراتی می تواند در مورد آن اعمال شود، بیفتند.

فرآیند ارزیابی چگونه آغاز می شود؟

فیگوروآ: همه چیز با دو سوال شروع می شود. اول اینکه مقررات چیست؟ این یک بخشنامه است که توسط یک مرجع صادر شده است. و سپس سوال دوم این است که چه کسی مرجع است – نهادی که قدرت صدور دستورات، تصمیم گیری و اجرای آن تصمیمات را دارد؟

مربوط به این دو سوال اول، سوال سوم است: نامزدها چه کسانی یا چه کسانی هستند؟ ما می‌توانیم در یک کشور حکومت محلی داشته باشیم یا نهادهای ملی جداگانه مانند سازمان ملل متحد که ممکن است در این شرایط ناتوان باشند.

هنگامی که خود تنظیم صنعت دارید، می توانید ثابت کنید که این بهترین راه است. اما شما بازیگران بد زیادی خواهید داشت. شما می توانید سازمان های حرفه ای داشته باشید، اما سپس وارد بوروکراسی بیشتری شوید. در همین حال، هوش مصنوعی با سرعتی باورنکردنی در حال حرکت است.

به نظر شما بهترین رویکرد چیست؟

فیگوئروآ: این باید ترکیبی از دولت، صنعت، سازمان‌های حرفه‌ای و احتمالاً سازمان‌های غیردولتی باشد که با هم کار می‌کنند. اما من خیلی خوشبین نیستم و فکر نمی‌کنم که آنها راه‌حل کافی برای آنچه در آینده خواهد آمد پیدا کنند.

آیا راهی برای تعامل با هوش مصنوعی و یادگیری ماشینی وجود دارد تا اقدامات ایمنی موقتی را در صورتی که نهاد از دستورالعمل‌ها فراتر رفت، اعمال کنیم؟

فیگوئروآ: شما همیشه می توانید این کار را انجام دهید. با این حال، یک چالش، غیرقابل پیش بینی بودن همه نتایج بالقوه این فناوری ها است.

در حال حاضر، ما همه بازیگران بزرگ در صنعت – OpenAI، مایکروسافت، گوگل – را داریم که روی فناوری‌های پایه‌تری کار می‌کنند. همچنین، بسیاری از شرکت‌های هوش مصنوعی با استفاده از فناوری در حال ایجاد، با سطح دیگری از انتزاع کار می‌کنند. اما آنها قدیمی ترین موجودات هستند.


بنابراین شما یک ذهن ژنتیکی دارید که هر کاری می خواهید انجام دهید. اگر اخلاق و رویه های مناسب را داشته باشید، می توانید اثرات مضر را کاهش دهید، ایمنی را افزایش دهید و سوگیری را کاهش دهید. اما شما اصلا نمی توانید آن را حذف کنید. ما باید با آن زندگی کنیم و برخی مسئولیت ها و مقررات ایجاد کنیم. اگر نتیجه ناخواسته ای رخ دهد، باید مسئولیت آن را روشن کنیم. من فکر می کنم این کلید است.

اکنون برای ترسیم دوره استفاده ایمن از هوش مصنوعی و یادگیری ماشینی چه باید کرد؟

فیگوئروآ: اولی یک زیرمتن است که ما همه چیز را نمی دانیم و می پذیریم که عواقب منفی رخ خواهد داد. در دراز مدت، هدف این است که نتایج مثبت بیشتر از نتایج منفی باشد.

به خاطر داشته باشید که انقلاب هوش مصنوعی در حال حاضر غیرقابل پیش بینی اما اجتناب ناپذیر است. می‌توانید ثابت کنید که مقررات می‌توانند وضع شوند، و ممکن است ایده خوبی باشد که سرعت را کاهش دهید و مطمئن شوید که تا حد ممکن ایمن هستیم. بپذیرید که عواقب منفی را متحمل خواهیم شد، به این امید که اثرات دراز مدت آن بسیار بهتر باشد و جامعه بسیار بهتری را برای ما فراهم کند.

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا