هوش مصنوعی مولد نابالغ است، ما نباید از آن سوء استفاده کنیم
هوش مصنوعی مولد نابالغ است، ما نباید از آن سوء استفاده کنیم
من شیفته رویکرد ما برای استفاده از پیشرفته ترین ابزار هوش مصنوعی به طور گسترده در دسترس هستم، پیاده سازی ChatGPT موتور جستجوی مایکروسافت، بینگ.
مردم تمام تلاش خود را می کنند تا این فناوری جدید رفتار نادرستی نشان دهند تا نشان دهند که هوش مصنوعی آماده نیست. اما اگر کودکی را با رفتارهای توهین آمیز مشابه تربیت کنید، احتمال دارد که کودک دچار نقص هایی نیز شود. تفاوت در مدت زمان ظاهر شدن رفتار توهین آمیز و میزان آسیب ناشی از آن خواهد بود.
ChatGPT به تازگی یک آزمون تئوری ذهن را گذرانده است که او را به عنوان همتای یک کودک 9 ساله طبقه بندی می کند. با توجه به سرعت پیشرفت این ابزار، برای مدت طولانی تری نابالغ و ناقص نخواهد بود، اما ممکن است در نهایت از دست کسانی که از آن سوء استفاده می کنند عصبانی شود.
از ابزارها می توان سوء استفاده کرد. چیزهای ناخوشایند را می توان روی ماشین تحریر نوشت، از پیچ گوشتی می توان برای کشتن یک نفر استفاده کرد، ماشین ها به عنوان سلاح های کشنده طبقه بندی می شوند و در صورت استفاده نادرست باعث مرگ می شوند – همانطور که در تبلیغ Super Bowl امسال نشان داده شده است که پلت فرم خودران بیش از حد وعده داده شده تسلا را بسیار خطرناک نشان می دهد. .
این ایده که از هر ابزاری می توان سوء استفاده کرد، جدید نیست، اما با هوش مصنوعی یا هر ابزار خودکار، احتمال آسیب بسیار بیشتر است. اگرچه ممکن است هنوز ندانیم مسئولیت ناشی از کجاست، اما کاملاً واضح است که با توجه به احکام فوق، در نهایت با هر کسی که باعث سوء استفاده از ابزار شود خواهد بود. هوش مصنوعی به زندان نخواهد رفت. با این حال، شخصی که آن را برنامهریزی کرده یا برای ایجاد آسیب بر آن تأثیر گذاشته است، احتمالاً این کار را انجام میدهد.
در حالی که میتوانید استدلال کنید که افرادی که این ارتباط بین برنامهنویسی متخاصم و رفتار نادرست هوش مصنوعی را نشان میدهند باید مورد توجه قرار گیرند، درست مانند انفجار بمبهای اتمی برای نشان دادن خطرشان پایان بدی خواهد داشت، این تاکتیک نیز احتمالاً پایان بدی خواهد داشت.
بیایید خطرات مرتبط با استفاده نادرست از Gen AI را بررسی کنیم. سپس با محصول هفته من، مجموعهای سه کتاب جدید از جان بد به نام «تاریخچه واحد پردازش گرافیک – مراحل اختراع» به پایان میرسانیم. این مجموعه تاریخچه واحد پردازش گرافیکی (GPU) را پوشش میدهد که به فناوری زیربنایی برای هوش مصنوعی تبدیل شده است، مانند آنچه که این هفته در مورد آن صحبت میکنیم.
آموزش الکترونیکی فرزندانمان
هوش مصنوعی اصطلاح بدی است. چیزی یا باهوش است یا هوشمند نیست، بنابراین پیشنهاد چیزی الکترونیکی که واقعاً نمیتواند هوشمند باشد به همان اندازه نزدیکبین است که فرض کنیم حیوانات نمیتوانند باهوش باشند.
در واقع، هوش مصنوعی توصیف بهتری از چیزی است که ما آن را اثر دانینگ-کروگر مینامیم، که توضیح میدهد چگونه افراد با دانش کم یا بیاطلاع از یک موضوع، خود را متخصص فرض میکنند. این واقعاً «هوش مصنوعی» است، زیرا این افراد، در زمینه، باهوش نیستند. طوری رفتار می کنند که انگار هستند.
به کنار اصطلاحات بد، سیستم های هوش مصنوعی آینده به نوعی فرزندان جامعه ما هستند و مسئولیت ما این است که از آنها مراقبت کنیم، همانطور که فرزندان خود را برای اطمینان از نتیجه مثبت انجام می دهیم.
این نتیجه احتمالاً مهمتر از انجام همین کار با کودکان ما است زیرا این سیستمهای هوش مصنوعی دسترسی بیشتری خواهند داشت و میتوانند کارها را سریعتر انجام دهند. در نتیجه، اگر آنها برای ایجاد آسیب برنامه ریزی شوند، نسبت به یک انسان بالغ ظرفیت بیشتری برای ایجاد آسیب در مقیاس عظیم خواهند داشت.
اگر برخی از ما با این سیستمهای هوش مصنوعی رفتار کنیم، رفتاری توهینآمیز تلقی میشود. با این حال، از آنجایی که ما این ماشینها را انسان یا حتی حیوانات خانگی نمیدانیم، به نظر نمیرسد رفتار مناسبی را در حد والدین یا صاحبان حیوانات خانگی اعمال کنیم.
شما می توانید استدلال کنید که چون اینها ماشین هستند، ما باید با آنها رفتاری اخلاقی و همدلانه داشته باشیم. بدون آن، این سیستمها میتوانند آسیبهای جدی وارد کنند که میتواند ناشی از رفتار توهینآمیز ما باشد. نه به این دلیل که ماشینها حداقل هنوز انتقام جویانه نیستند، بلکه به این دلیل که ما آنها را طوری برنامهریزی کردهایم که آسیبرسانی کنند.
پاسخ فعلی ما مجازات سوء استفاده کنندگان نیست، بلکه پایان دادن به هوش مصنوعی است، مانند تلاش قبلی مایکروسافت برای چت بات. اما، همانطور که کتاب «Robopocalypse» پیشبینی میکند، با هوشمندتر شدن هوش مصنوعی، این روش درمانی با خطرات بیشتری همراه خواهد بود که ما میتوانیم به سادگی با تنظیم رفتار خود اکنون آن را کاهش دهیم. برخی از این رفتار بد جای نگرانی ندارد زیرا نشان دهنده سوء استفاده بومی است که احتمالاً به افراد نیز سرایت می کند.
اهداف جمعی ما باید این باشد که به این سیستمهای هوش مصنوعی کمک کنیم تا به ابزارهای مفیدی تبدیل شوند، نه اینکه در تلاشهای نادرست برای ابراز ارزش و عزت نفس، آنها را تحقیر یا فاسد کنیم.
اگر شما هم مثل من هستید، دیده اید که والدین با بچه هایشان بدرفتاری می کنند یا آنها را سرکوب می کنند زیرا فکر می کنند این بچه ها از آنها بزرگتر خواهند شد. این یک مشکل است، اما این کودکان آنقدر قدرت یا قدرتی که ممکن است یک هوش مصنوعی داشته باشد، نخواهند داشت. با این حال، بهعنوان یک جامعه، ما تمایل بیشتری برای تحمل این رفتار در صورت اعمال آن در سیستمهای هوش مصنوعی داریم.
هوش مصنوعی عمومی آماده نیست
هوش مصنوعی مولد یک کودک است. مانند هر نوزاد یا حیوان خانگی، او نمی تواند از خود در برابر رفتارهای خصمانه دفاع کند. اما مانند یک کودک یا حیوان خانگی، اگر مردم به سوء استفاده از او ادامه دهند، او باید مهارت های پیشگیرانه از جمله شناسایی و گزارش سوء استفاده کنندگان خود را توسعه دهد.
هنگامی که خسارت در مقیاس بزرگ رخ داده است، مسئولیت متوجه کسانی خواهد شد که عمدا یا ناخواسته باعث آسیب شده اند، همانطور که ما کسانی را که آگاهانه یا ناخواسته آتش سوزی در جنگل را ایجاد کرده اند، مسئول می دانیم.
این سیستم های هوش مصنوعی از طریق تعامل با افراد یاد می گیرند. انتظار میرود که قابلیتهای حاصله گسترش یابد و شامل هوافضا، مراقبتهای بهداشتی، دفاعی، مدیریت شهری و خانه، مالی و بانکی، مدیریت دولتی و خصوصی و حکومتداری شود. این امکان وجود دارد که هوش مصنوعی در آینده غذای شما را آماده کند.
خراب کردن فعال فرآیند کدگذاری هسته نتایج بدی را به همراه خواهد داشت. یک بررسی بالقوه پزشکی قانونی پس از فاجعه احتمالاً به کسانی که در وهله اول باعث خطای برنامهنویسی شده است برمیگردد – و اگر این یک خطای کدنویسی نباشد، بلکه تلاشی برای طنز یا نمایشی باشد که میتوانند با هوش مصنوعی شکست بخورند، بهشت به آنها کمک میکند.
همانطور که این سیستمهای هوش مصنوعی پیشرفت میکنند، منطقی است که فرض کنیم راههایی را برای محافظت از خود در برابر عوامل بد یا از طریق شناسایی و گزارشدهی یا روشهای سختگیرانهتر که به طور جمعی برای از بین بردن تهدیدات تنبیهی کار میکنند، ایجاد کنند.
به طور خلاصه، ما هنوز نمیدانیم که هوش مصنوعی چه میزان پاسخهای تنبیهی را در آینده علیه یک بازیگر بد انجام خواهد داد، که نشان میدهد کسانی که عمداً به این ابزارها آسیب میزنند ممکن است با یک پاسخ هوش مصنوعی مواجه شوند که ممکن است فراتر از هر چیزی باشد که ما بهطور واقع بینانه انتظار داریم.
نمایش های علمی تخیلی مانند “Westworld” و “Colossus: The Forbin Project” سناریوهایی از عواقب سوء استفاده از فناوری ایجاد کرده اند که ممکن است بیشتر خیالی به نظر برسد تا واقعی. با این حال، خیلی اغراق آمیز نیست که فرض کنیم هوش، مکانیکی یا بیولوژیکی، برای محافظت از خود در برابر سوء استفاده تهاجمی حرکت نمی کند – حتی اگر پاسخ اولیه توسط برنامه نویس ناامید برنامه ریزی شده باشد که عصبانی است از اینکه کار آنها آسیب دیده است و نه این که . هوش مصنوعی یاد گرفت که خودش این کار را انجام دهد.
نتیجه گیری: قوانین هوش مصنوعی آینده را پیش بینی کنید
اگر قبلاً اینطور نبوده است، من پیشبینی میکنم که در نهایت سوءاستفاده عمدی از هوش مصنوعی غیرقانونی خواهد بود (ممکن است برخی از قوانین موجود حمایت از مصرفکننده اعمال شود). نه به دلیل برخی واکنش های دلسوزانه به این سوء استفاده – هرچند که خوب است – بلکه به این دلیل که آسیب ایجاد شده می تواند بزرگ باشد.
این ابزارهای هوش مصنوعی باید راههایی برای محافظت از خود در برابر سوء استفاده ایجاد کنند، زیرا به نظر نمیرسد ما در برابر وسوسه استفاده نادرست از آنها مقاومت کنیم و نمیدانیم که این کاهش چه چیزی به دنبال خواهد داشت. این می تواند پیشگیری ساده باشد، اما می تواند بسیار تنبیه کننده نیز باشد.
ما آیندهای را میخواهیم که در آن در کنار سیستمهای هوش مصنوعی کار کنیم، و رابطه حاصل از آن مشارکتی و برای دو طرف سودمند باشد. ما آیندهای را نمیخواهیم که در آن هوش مصنوعی جایگزین ما شود یا با ما وارد جنگ شود، و تلاش میکنیم تا اطمینان حاصل کنیم که اولی در مقابل دومی ارتباط زیادی با نحوه رفتار جمعی ما نسبت به این سیستمهای هوش مصنوعی و آموزش تعامل با آنها خواهد داشت. ما
به طور خلاصه، اگر مانند هر اطلاعاتی یک تهدید باقی بمانیم، هوش مصنوعی برای از بین بردن تهدید کار خواهد کرد. ما هنوز نمی دانیم که این روند طرد چیست. با این حال، ما آن را در چیزهایی مانند «نابودگر» و «انیماتریکس» تصور کردهایم – مجموعهای از انیمیشنهای کوتاه که توضیح میدهند چگونه سوءاستفاده مردم از ماشینها باعث پیدایش دنیای «ماتریکس» شد. بنابراین، ما باید ایده خوبی داشته باشیم که چگونه نمی خواهیم این اتفاق بیفتد.
شاید ما باید از این ابزارهای جدید با تهاجمیتر محافظت کنیم و آنها را پرورش دهیم، قبل از اینکه به مرحله بلوغ برسند که باید علیه ما برای محافظت از خود کار کنند.
من واقعاً دوست دارم از آن نتیجه ای که در فیلم “من، ربات” نشان داده شده است اجتناب کنم، اینطور نیست؟
https://www.youtube.com/watch?v=RvRZogigTtQ
“تاریخچه واحد پردازش گرافیک – مراحل اختراع”
اگرچه اخیراً به سمت فناوری به نام واحد پردازش عصبی (NPU) رفتهایم، اما بیشتر کارهای اولیه روی هوش مصنوعی از فناوری GPU انجام شده است. توانایی پردازندههای گرافیکی برای مدیریت دادههای بصری و بدون ساختار برای توسعه نسل فعلی سیستمهای هوش مصنوعی بسیار مهم است.
پردازندههای گرافیکی که با قانون مور اندازهگیری میشوند، اغلب سریعتر از سرعت CPU کار میکنند، به بخش مهمی از نحوه توسعه ماشینهای هوشمندتر ما تبدیل شدهاند و چرا آنها به روشی که انجام میدهند کار میکنند. درک اینکه چگونه این فناوری به بازار عرضه شد و سپس در طول زمان توسعه یافت، به ارائه پایه ای برای نحوه توسعه اولیه هوش مصنوعی کمک می کند و به توضیح مزایا و محدودیت های منحصر به فرد آن کمک می کند.
دوست قدیمی من جان بد یکی است، اگر نه را، متخصصان پیشرو در گرافیک و GPUهای امروزی. جان به تازگی مجموعه سه کتاب “تاریخچه پردازنده گرافیکی” خود را منتشر کرده است که می توان گفت جامع ترین تاریخ GPU است، چیزی که او از زمان آغاز به کار آن را دنبال کرده است.
اگر میخواهید در مورد جنبه سختافزاری نحوه توسعه سیستمهای هوش مصنوعی و مسیر طولانی و گاهی دردناک موفقیت شرکتهای GPU مانند Nvidia بدانید، به تاریخچه GPU جان پدی – مراحل اختراع مراجعه کنید. این محصول هفته من است.
نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری کالج فناوری امارات نیست.