تکنولوژی

هوش مصنوعی مولد نابالغ است، ما نباید از آن سوء استفاده کنیم

هوش مصنوعی مولد نابالغ است، ما نباید از آن سوء استفاده کنیم

من شیفته رویکرد ما برای استفاده از پیشرفته ترین ابزار هوش مصنوعی به طور گسترده در دسترس هستم، پیاده سازی ChatGPT موتور جستجوی مایکروسافت، بینگ.

مردم تمام تلاش خود را می کنند تا این فناوری جدید رفتار نادرستی نشان دهند تا نشان دهند که هوش مصنوعی آماده نیست. اما اگر کودکی را با رفتارهای توهین آمیز مشابه تربیت کنید، احتمال دارد که کودک دچار نقص هایی نیز شود. تفاوت در مدت زمان ظاهر شدن رفتار توهین آمیز و میزان آسیب ناشی از آن خواهد بود.

ChatGPT به تازگی یک آزمون تئوری ذهن را گذرانده است که او را به عنوان همتای یک کودک 9 ساله طبقه بندی می کند. با توجه به سرعت پیشرفت این ابزار، برای مدت طولانی تری نابالغ و ناقص نخواهد بود، اما ممکن است در نهایت از دست کسانی که از آن سوء استفاده می کنند عصبانی شود.

از ابزارها می توان سوء استفاده کرد. چیزهای ناخوشایند را می توان روی ماشین تحریر نوشت، از پیچ گوشتی می توان برای کشتن یک نفر استفاده کرد، ماشین ها به عنوان سلاح های کشنده طبقه بندی می شوند و در صورت استفاده نادرست باعث مرگ می شوند – همانطور که در تبلیغ Super Bowl امسال نشان داده شده است که پلت فرم خودران بیش از حد وعده داده شده تسلا را بسیار خطرناک نشان می دهد. .

این ایده که از هر ابزاری می توان سوء استفاده کرد، جدید نیست، اما با هوش مصنوعی یا هر ابزار خودکار، احتمال آسیب بسیار بیشتر است. اگرچه ممکن است هنوز ندانیم مسئولیت ناشی از کجاست، اما کاملاً واضح است که با توجه به احکام فوق، در نهایت با هر کسی که باعث سوء استفاده از ابزار شود خواهد بود. هوش مصنوعی به زندان نخواهد رفت. با این حال، شخصی که آن را برنامه‌ریزی کرده یا برای ایجاد آسیب بر آن تأثیر گذاشته است، احتمالاً این کار را انجام می‌دهد.

در حالی که می‌توانید استدلال کنید که افرادی که این ارتباط بین برنامه‌نویسی متخاصم و رفتار نادرست هوش مصنوعی را نشان می‌دهند باید مورد توجه قرار گیرند، درست مانند انفجار بمب‌های اتمی برای نشان دادن خطرشان پایان بدی خواهد داشت، این تاکتیک نیز احتمالاً پایان بدی خواهد داشت.

بیایید خطرات مرتبط با استفاده نادرست از Gen AI را بررسی کنیم. سپس با محصول هفته من، مجموعه‌ای سه کتاب جدید از جان بد به نام «تاریخچه واحد پردازش گرافیک – مراحل اختراع» به پایان می‌رسانیم. این مجموعه تاریخچه واحد پردازش گرافیکی (GPU) را پوشش می‌دهد که به فناوری زیربنایی برای هوش مصنوعی تبدیل شده است، مانند آنچه که این هفته در مورد آن صحبت می‌کنیم.

آموزش الکترونیکی فرزندانمان

هوش مصنوعی اصطلاح بدی است. چیزی یا باهوش است یا هوشمند نیست، بنابراین پیشنهاد چیزی الکترونیکی که واقعاً نمی‌تواند هوشمند باشد به همان اندازه نزدیک‌بین است که فرض کنیم حیوانات نمی‌توانند باهوش باشند.

در واقع، هوش مصنوعی توصیف بهتری از چیزی است که ما آن را اثر دانینگ-کروگر می‌نامیم، که توضیح می‌دهد چگونه افراد با دانش کم یا بی‌اطلاع از یک موضوع، خود را متخصص فرض می‌کنند. این واقعاً «هوش مصنوعی» است، زیرا این افراد، در زمینه، باهوش نیستند. طوری رفتار می کنند که انگار هستند.

به کنار اصطلاحات بد، سیستم های هوش مصنوعی آینده به نوعی فرزندان جامعه ما هستند و مسئولیت ما این است که از آنها مراقبت کنیم، همانطور که فرزندان خود را برای اطمینان از نتیجه مثبت انجام می دهیم.

این نتیجه احتمالاً مهم‌تر از انجام همین کار با کودکان ما است زیرا این سیستم‌های هوش مصنوعی دسترسی بیشتری خواهند داشت و می‌توانند کارها را سریع‌تر انجام دهند. در نتیجه، اگر آنها برای ایجاد آسیب برنامه ریزی شوند، نسبت به یک انسان بالغ ظرفیت بیشتری برای ایجاد آسیب در مقیاس عظیم خواهند داشت.


اگر برخی از ما با این سیستم‌های هوش مصنوعی رفتار کنیم، رفتاری توهین‌آمیز تلقی می‌شود. با این حال، از آنجایی که ما این ماشین‌ها را انسان یا حتی حیوانات خانگی نمی‌دانیم، به نظر نمی‌رسد رفتار مناسبی را در حد والدین یا صاحبان حیوانات خانگی اعمال کنیم.

شما می توانید استدلال کنید که چون اینها ماشین هستند، ما باید با آنها رفتاری اخلاقی و همدلانه داشته باشیم. بدون آن، این سیستم‌ها می‌توانند آسیب‌های جدی وارد کنند که می‌تواند ناشی از رفتار توهین‌آمیز ما باشد. نه به این دلیل که ماشین‌ها حداقل هنوز انتقام جویانه نیستند، بلکه به این دلیل که ما آنها را طوری برنامه‌ریزی کرده‌ایم که آسیب‌رسانی کنند.

پاسخ فعلی ما مجازات سوء استفاده کنندگان نیست، بلکه پایان دادن به هوش مصنوعی است، مانند تلاش قبلی مایکروسافت برای چت بات. اما، همانطور که کتاب «Robopocalypse» پیش‌بینی می‌کند، با هوشمندتر شدن هوش مصنوعی، این روش درمانی با خطرات بیشتری همراه خواهد بود که ما می‌توانیم به سادگی با تنظیم رفتار خود اکنون آن را کاهش دهیم. برخی از این رفتار بد جای نگرانی ندارد زیرا نشان دهنده سوء استفاده بومی است که احتمالاً به افراد نیز سرایت می کند.

اهداف جمعی ما باید این باشد که به این سیستم‌های هوش مصنوعی کمک کنیم تا به ابزارهای مفیدی تبدیل شوند، نه اینکه در تلاش‌های نادرست برای ابراز ارزش و عزت نفس، آنها را تحقیر یا فاسد کنیم.

اگر شما هم مثل من هستید، دیده اید که والدین با بچه هایشان بدرفتاری می کنند یا آنها را سرکوب می کنند زیرا فکر می کنند این بچه ها از آنها بزرگتر خواهند شد. این یک مشکل است، اما این کودکان آنقدر قدرت یا قدرتی که ممکن است یک هوش مصنوعی داشته باشد، نخواهند داشت. با این حال، به‌عنوان یک جامعه، ما تمایل بیشتری برای تحمل این رفتار در صورت اعمال آن در سیستم‌های هوش مصنوعی داریم.

هوش مصنوعی عمومی آماده نیست

هوش مصنوعی مولد یک کودک است. مانند هر نوزاد یا حیوان خانگی، او نمی تواند از خود در برابر رفتارهای خصمانه دفاع کند. اما مانند یک کودک یا حیوان خانگی، اگر مردم به سوء استفاده از او ادامه دهند، او باید مهارت های پیشگیرانه از جمله شناسایی و گزارش سوء استفاده کنندگان خود را توسعه دهد.

هنگامی که خسارت در مقیاس بزرگ رخ داده است، مسئولیت متوجه کسانی خواهد شد که عمدا یا ناخواسته باعث آسیب شده اند، همانطور که ما کسانی را که آگاهانه یا ناخواسته آتش سوزی در جنگل را ایجاد کرده اند، مسئول می دانیم.

این سیستم های هوش مصنوعی از طریق تعامل با افراد یاد می گیرند. انتظار می‌رود که قابلیت‌های حاصله گسترش یابد و شامل هوافضا، مراقبت‌های بهداشتی، دفاعی، مدیریت شهری و خانه، مالی و بانکی، مدیریت دولتی و خصوصی و حکومت‌داری شود. این امکان وجود دارد که هوش مصنوعی در آینده غذای شما را آماده کند.

خراب کردن فعال فرآیند کدگذاری هسته نتایج بدی را به همراه خواهد داشت. یک بررسی بالقوه پزشکی قانونی پس از فاجعه احتمالاً به کسانی که در وهله اول باعث خطای برنامه‌نویسی شده است برمی‌گردد – و اگر این یک خطای کدنویسی نباشد، بلکه تلاشی برای طنز یا نمایشی باشد که می‌توانند با هوش مصنوعی شکست بخورند، بهشت ​​به آنها کمک می‌کند.

همانطور که این سیستم‌های هوش مصنوعی پیشرفت می‌کنند، منطقی است که فرض کنیم راه‌هایی را برای محافظت از خود در برابر عوامل بد یا از طریق شناسایی و گزارش‌دهی یا روش‌های سخت‌گیرانه‌تر که به طور جمعی برای از بین بردن تهدیدات تنبیهی کار می‌کنند، ایجاد کنند.


به طور خلاصه، ما هنوز نمی‌دانیم که هوش مصنوعی چه میزان پاسخ‌های تنبیهی را در آینده علیه یک بازیگر بد انجام خواهد داد، که نشان می‌دهد کسانی که عمداً به این ابزارها آسیب می‌زنند ممکن است با یک پاسخ هوش مصنوعی مواجه شوند که ممکن است فراتر از هر چیزی باشد که ما به‌طور واقع بینانه انتظار داریم.

نمایش های علمی تخیلی مانند “Westworld” و “Colossus: The Forbin Project” سناریوهایی از عواقب سوء استفاده از فناوری ایجاد کرده اند که ممکن است بیشتر خیالی به نظر برسد تا واقعی. با این حال، خیلی اغراق آمیز نیست که فرض کنیم هوش، مکانیکی یا بیولوژیکی، برای محافظت از خود در برابر سوء استفاده تهاجمی حرکت نمی کند – حتی اگر پاسخ اولیه توسط برنامه نویس ناامید برنامه ریزی شده باشد که عصبانی است از اینکه کار آنها آسیب دیده است و نه این که . هوش مصنوعی یاد گرفت که خودش این کار را انجام دهد.

نتیجه گیری: قوانین هوش مصنوعی آینده را پیش بینی کنید

اگر قبلاً اینطور نبوده است، من پیش‌بینی می‌کنم که در نهایت سوءاستفاده عمدی از هوش مصنوعی غیرقانونی خواهد بود (ممکن است برخی از قوانین موجود حمایت از مصرف‌کننده اعمال شود). نه به دلیل برخی واکنش های دلسوزانه به این سوء استفاده – هرچند که خوب است – بلکه به این دلیل که آسیب ایجاد شده می تواند بزرگ باشد.

این ابزارهای هوش مصنوعی باید راه‌هایی برای محافظت از خود در برابر سوء استفاده ایجاد کنند، زیرا به نظر نمی‌رسد ما در برابر وسوسه استفاده نادرست از آنها مقاومت کنیم و نمی‌دانیم که این کاهش چه چیزی به دنبال خواهد داشت. این می تواند پیشگیری ساده باشد، اما می تواند بسیار تنبیه کننده نیز باشد.

ما آینده‌ای را می‌خواهیم که در آن در کنار سیستم‌های هوش مصنوعی کار کنیم، و رابطه حاصل از آن مشارکتی و برای دو طرف سودمند باشد. ما آینده‌ای را نمی‌خواهیم که در آن هوش مصنوعی جایگزین ما شود یا با ما وارد جنگ شود، و تلاش می‌کنیم تا اطمینان حاصل کنیم که اولی در مقابل دومی ارتباط زیادی با نحوه رفتار جمعی ما نسبت به این سیستم‌های هوش مصنوعی و آموزش تعامل با آنها خواهد داشت. ما

به طور خلاصه، اگر مانند هر اطلاعاتی یک تهدید باقی بمانیم، هوش مصنوعی برای از بین بردن تهدید کار خواهد کرد. ما هنوز نمی دانیم که این روند طرد چیست. با این حال، ما آن را در چیزهایی مانند «نابودگر» و «انیماتریکس» تصور کرده‌ایم – مجموعه‌ای از انیمیشن‌های کوتاه که توضیح می‌دهند چگونه سوءاستفاده مردم از ماشین‌ها باعث پیدایش دنیای «ماتریکس» شد. بنابراین، ما باید ایده خوبی داشته باشیم که چگونه نمی خواهیم این اتفاق بیفتد.

شاید ما باید از این ابزارهای جدید با تهاجمی‌تر محافظت کنیم و آن‌ها را پرورش دهیم، قبل از اینکه به مرحله بلوغ برسند که باید علیه ما برای محافظت از خود کار کنند.

من واقعاً دوست دارم از آن نتیجه ای که در فیلم “من، ربات” نشان داده شده است اجتناب کنم، اینطور نیست؟

https://www.youtube.com/watch?v=RvRZogigTtQ

محصول فنی هفته

“تاریخچه واحد پردازش گرافیک – مراحل اختراع”

تاریخچه واحد پردازش گرافیک - مراحل اختراع نوشته جان بد، جلد کتاب

اگرچه اخیراً به سمت فناوری به نام واحد پردازش عصبی (NPU) رفته‌ایم، اما بیشتر کارهای اولیه روی هوش مصنوعی از فناوری GPU انجام شده است. توانایی پردازنده‌های گرافیکی برای مدیریت داده‌های بصری و بدون ساختار برای توسعه نسل فعلی سیستم‌های هوش مصنوعی بسیار مهم است.

پردازنده‌های گرافیکی که با قانون مور اندازه‌گیری می‌شوند، اغلب سریع‌تر از سرعت CPU کار می‌کنند، به بخش مهمی از نحوه توسعه ماشین‌های هوشمندتر ما تبدیل شده‌اند و چرا آنها به روشی که انجام می‌دهند کار می‌کنند. درک اینکه چگونه این فناوری به بازار عرضه شد و سپس در طول زمان توسعه یافت، به ارائه پایه ای برای نحوه توسعه اولیه هوش مصنوعی کمک می کند و به توضیح مزایا و محدودیت های منحصر به فرد آن کمک می کند.

دوست قدیمی من جان بد یکی است، اگر نه را، متخصصان پیشرو در گرافیک و GPUهای امروزی. جان به تازگی مجموعه سه کتاب “تاریخچه پردازنده گرافیکی” خود را منتشر کرده است که می توان گفت جامع ترین تاریخ GPU است، چیزی که او از زمان آغاز به کار آن را دنبال کرده است.

اگر می‌خواهید در مورد جنبه سخت‌افزاری نحوه توسعه سیستم‌های هوش مصنوعی و مسیر طولانی و گاهی دردناک موفقیت شرکت‌های GPU مانند Nvidia بدانید، به تاریخچه GPU جان پدی – مراحل اختراع مراجعه کنید. این محصول هفته من است.

نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری کالج فناوری امارات نیست.

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا