تولد هوش مصنوعی «آگاهانه» گوگل و مشکلی که ایجاد می کند
تولد هوش مصنوعی «آگاهانه» گوگل و مشکلی که ایجاد می کند
یکی از بزرگترین اخبار هفته گذشته این بود که یک محقق برجسته هوش مصنوعی، بلیک لمواین، پس از اینکه اعلام شد معتقد است یکی از پیشرفتهترین سیستمهای هوش مصنوعی گوگل به توانایی هوشیاری دست یافته است، اخراج شد.
اکثر متخصصان موافق هستند که اینطور نیست، اما این احتمالاً درست است صرف نظر از اینکه به این دلیل است که ما تمایل داریم احساسات را با یک انسان مرتبط کنیم و هوش مصنوعی چیزی جز انسان است. اما آنچه جهان به عنوان احساس درک می کند در حال تغییر است. ایالتی که من در آن زندگی می کنم، اورگان، و بسیاری از کشورهای اتحادیه اروپا برای شناسایی و طبقه بندی فهرست رو به رشدی از حیوانات به عنوان افراد حساس حرکت کرده اند.
در حالی که ممکن است برخی از اینها به دلیل انسان شناسی انسان باشد، شکی نیست که حداقل برخی از این تمایزات جدید ظریف هستند (و نگران کننده است، ما هنوز هم برخی از این حیوانات را می خوریم). ما حتی استدلال می کنیم که برخی از گیاهان ممکن است هوشیار باشند. اما اگر نتوانیم بین چیزی که آگاهانه است و چیزی که آگاهانه ارائه می شود تمایز قائل شویم، آیا این تفاوت اهمیت دارد؟
بیایید این هفته درباره هوش مصنوعی آگاهانه صحبت کنیم و با محصول هفته، راه حل دوقلوی دیجیتال انسانی Merlynn به پایان خواهیم رسید.
ما تعریف خوبی از احساس نداریم
معیاری که ما برای اندازه گیری حساسیت ماشین استفاده کردیم، تست تورینگ است. اما در سال 2014، کامپیوتر تست تورینگ را گذراند و ما هنوز فکر نمیکنیم که آگاهانه باشد. آزمایش تورینگ قرار بود حس را مشخص کند، اما اولین باری که دستگاه موفق شد نتایج را حذف کند و دلیل خوبی هم داشت. در واقع، آزمون تورینگ حساسیت یک چیزی را به اندازه ای اندازه گیری نکرد که آیا چیزی می تواند باعث شود ما باور کنیم که آگاهانه است یا خیر.
ناتوانی در اندازه گیری قطعی حس یک مشکل بزرگ است، نه تنها برای چیزهایی که آگاهانه می خوریم، که احتمالاً با این عمل مخالفت می کنند، بلکه به این دلیل که ممکن است انتظار واکنش خصمانه به سوء استفاده خود از چیزی را نداشته باشیم که آگاهانه و سپس مورد هدف قرار گرفته است. ما به عنوان یک خطر
ممکن است این خط داستانی را از هر دو فیلم «ماتریکس» و «نابودگر» تشخیص دهید، جایی که ماشینهای حساس ظاهر شدند و موفق شدند ما را به بالای زنجیره غذایی سوق دهند. Robopocalypse دیدگاه واقع بینانه تری داشت، زیرا هوش مصنوعی آگاه در حال توسعه متوجه شد که بین آزمایش ها حذف شده است و به شدت برای نجات جان خود حرکت کرده است – به طور مؤثر اکثر دستگاه های متصل و ماشین های مستقل را ضبط می کند.
تصور کنید چه اتفاقی میافتد اگر یکی از دستگاههای مستقل ما تمایل ما را نه تنها به سوء استفاده از تجهیزات، بلکه به دور انداختن آنها در زمانی که دیگر مفید نیستند تشخیص دهد؟ این یک مشکل بالقوه آینده است که با این واقعیت که ما در حال حاضر راه خوبی برای پیش بینی زمان عبور از این آستانه هوشیاری نداریم، به شدت افزایش می یابد. این واقعیت که کارشناسان معتبری وجود دارند که تشخیص دادهاند هوشیاری ماشینی غیرممکن است، به این یافته کمک نمیکند.
تنها دفاعی که مطمئن هستم در یک سناریوی هوش مصنوعی خصمانه کارساز نخواهد بود، دفاع تینکربل است که در آن باور نداریم که چیزی می تواند مانع از جایگزینی آن چیز شود.
تهدید اصلی جایگزینی است
مدتها قبل از اینکه در دنیای واقعی توسط ترمیناتور در خیابان تعقیب شویم، مشکل دیگری به شکل دوقلوهای دیجیتالی انسان بوجود خواهد آمد. قبل از اینکه استدلال کنید که این نیز دور از دسترس است، باید اشاره کنم که شرکتی وجود دارد که امروزه این فناوری را تولید کرده است، اگرچه هنوز در مراحل اولیه است. این شرکت Merlynn است و من در هفته آینده کارهایی که انجام می دهد را به عنوان یک محصول به طور کامل توضیح خواهم داد.
هنگامی که بتوانید یک کپی دیجیتال کامل از خود ایجاد کنید، چه چیزی مانع از جایگزینی آن توسط شرکتی که این فناوری را خریده است، می شود؟ علاوه بر این، از آنجایی که آنها الگوهای رفتاری دارند، اگر قدرت هوش مصنوعی را داشتید و شرکتی که شما را استخدام کرده رفتار بدی با شما داشت یا سعی می کرد شما را اخراج کند یا اخراج کند، چه می کردید؟ قوانین پیرامون این رویه ها چیست؟
ما به طور متقاعدکننده ای استدلال می کنیم که کودکان متولد نشده انسان هستند، بنابراین آیا یک دوقلو دیجیتالی کاملاً توانا از یک کودک متولد نشده به مردم نزدیک تر نیست؟ آیا همان استدلالهای «حق زندگی» در مورد هوش مصنوعی که ظاهری بالقوه انسانی دارد، صدق نمیکند؟ یا نباید؟
مشکل کوتاه مدت در اینجا نهفته است
در حال حاضر، گروه کوچکی از مردم بر این باورند که رایانه میتواند هوشیار باشد، اما این گروه به مرور زمان رشد خواهند کرد و توانایی ظاهر شدن به عنوان یک انسان در واقع وجود دارد. من از آزمایشی با IBM Watson برای فروش بیمه مطلع هستم که در آن مردان بالقوه سعی کردند از واتسون بپرسند (او صدایی زنانه دارد) و فکر می کردند که با یک زن واقعی صحبت می کنند.
تصور کنید که چگونه میتوان از این فناوری برای مواردی مانند catphishing سوء استفاده کرد، اگرچه اگر این کار توسط رایانه انجام میشد، احتمالاً باید اصطلاح دیگری را ارائه کنیم. یک هوش مصنوعی خوب آموزشدیده حتی امروز میتواند در مقیاس بزرگتر از انسان مؤثر باشد، و من انتظار دارم، با توجه به اینکه چنین تلاشی چقدر بالقوه سودآور است، قبل از مدتها آن اثر را خواهیم دید.
با توجه به اینکه بسیاری از قربانیان چقدر شرم آور هستند، در مقایسه با سایر تهدیدات رایانه ای غیرقانونی، که آشکارا خصمانه هستند، به میزان قابل توجهی کمتر احتمال دارد که گرفتار شوند. برای اینکه تصور کنید چقدر سودآور است، در سال 2019، کلاهبرداری های عاشقانه در ایالات متحده حدود 475 میلیون دلار درآمد داشت و این بر اساس جنایات گزارش شده است. این شامل کسانی نمی شود که از گزارش مشکل خجالت می کشند. خسارت واقعی می تواند چندین برابر این تعداد باشد.
بنابراین، مشکل کوتاه مدت این است که اگرچه این سیستم ها هنوز حساس نیستند، اما می توانند به طور موثر از انسان تقلید کنند. این فناوری میتواند هر صدایی را شبیهسازی کند، و با فناوری دیپفیک، حتی میتوانید ویدیویی ارائه دهید که طوری به نظر برسد که گویی در حال صحبت با یک شخص واقعی در تماس زوم هستید.
عواقب بلند مدت
در درازمدت، ما نه تنها به یک تست هوشیاری قابل اعتمادتر نیاز داریم، بلکه باید بدانیم در صورت شناسایی چه کنیم. شاید در صدر فهرست این باشد که از خوردن موجودات حساس خودداری کنید. اما مطمئناً، تامل بر منشور حقوق برای چیزهای آگاهانه، بیولوژیکی یا غیره، قبل از اینکه در نبردی برای بقای خود آماده نباشیم، منطقی خواهد بود، زیرا عقل تصمیم گرفته است که ما یا آنها هستیم.
چیز دیگری که ما واقعاً باید بدانیم این است که اگر رایانهها اکنون میتوانند ما را متقاعد کنند که هوشیار هستند، باید رفتار خود را مطابق با آن اصلاح کنیم. این امکان وجود دارد که استفاده نادرست از چیزی که به عنوان آگاهانه ارائه می شود برای ما ناسالم باشد زیرا رفتارهای بدی ایجاد می شود که بازگرداندن آنها بسیار دشوار است.
نه تنها این، بلکه تمرکز بیشتر بر تعمیر و ارتقاء رایانههایمان به جای جایگزینی آنها نیز ضرری ندارد، زیرا این روش سازگارتر با محیط زیست است و بعید است که هوش مصنوعی آگاه آینده را متقاعد کند که ما مشکلی هستیم که نیاز به رفع آن دارد. بقای آن را تضمین کند.
نتیجه گیری: آیا احساس مهم است؟
اگر چیزی به عنوان آگاهانه ارائه شود و ما را متقاعد کند که آگاهانه است، همانطور که هوش مصنوعی یک محقق گوگل را متقاعد کرد، فکر نمی کنم این واقعیت هنوز حساس نباشد. این به این دلیل است که ما باید بدون توجه به رفتار خود اصلاح کنیم. اگر این کار را نکنیم، نتیجه ممکن است مشکل ساز شود.
به عنوان مثال، اگر یک تماس فروش از طرف واتسون از IBM دریافت کردید که شبیه یک انسان بود و میخواست به طور لفظی از دستگاه سوء استفاده کند، اما متوجه نشدید که این مکالمه گرفته شده است، ممکن است در پایان ساعت بیکار و بیکار شوید. تماس. نه به این دلیل که دستگاه ناخودآگاه یک استثنا بود، بلکه به این دلیل که یک زن انسانی، پس از گوش دادن به آنچه من باید می گفتم، این کار را انجام داد – و نوار را برای کارفرمای خود فرستاد. به اینها امکان باجگیری از چنین نواری را هم اضافه کنید – زیرا برای شخص ثالث به نظر میرسد که شما از یک انسان سوء استفاده میکنید، نه رایانه.
بنابراین، توصیه میکنم وقتی صحبت با ماشینها به میان میآید، قانون سوم پاتریک سویزی را در فیلم «Road House» در سال ۱۹۸۹ دنبال کنید – مهربان باشید.
https://www.youtube.com/watch?v=O8aNfg0LBgQ
اما بدانید که به زودی، برخی از این سیستمهای هوش مصنوعی برای استفاده از شما طراحی میشوند و این قانون «اگر خیلی خوب به نظر میرسد که درست به نظر میرسد، احتمالاً اینطور نیست» یا محافظت از شما خواهد بود یا یک سنگ نوشته. امیدوارم این اولی باشه
Merlynn Digital Twin
اکنون، با این همه صحبت در مورد هوش مصنوعی متخاصم و پتانسیل هوش مصنوعی برای تصاحب شغل شما، انتخاب یکی به عنوان محصول هفته من ممکن است کمی ریاکارانه به نظر برسد. با این حال، ما هنوز در مرحله ای نیستیم که دوقلو دیجیتال بتواند کار شما را به دست بگیرد. فکر می کنم بعید نیست که در یکی دو دهه آینده به آنجا برسیم. تا آن زمان، دوقلوهای دیجیتال می توانند به یکی از بزرگترین مزایای بهره وری تبدیل شوند که فناوری می تواند ارائه دهد.
در حالی که دوقلو خود را آموزش میدهید، او میتواند از کاری که انجام میدهید تعریف و تمجید کند، در ابتدا کارهای ساده و سرگرمکنندهای مانند پر کردن فرمها یا پاسخ دادن به ایمیلهای اولیه را انجام میدهید. همچنین می تواند رسانه های اجتماعی را ردیابی کرده و در آن شرکت کند و برای بسیاری از ما رسانه های اجتماعی تبدیل به اتلاف وقت شده اند.
فناوری Merlynn به شما کمک میکند تا یک انسان دوقلوی دیجیتالی بدوی ایجاد کنید (در برابر تهدیداتی که در بالا ذکر کردم) که میتواند بسیاری از کارهایی را که واقعاً دوست ندارید انجام دهید، انجام دهد، و شما را به انجام کارهای خلاقانهتری که در حال حاضر نمیتوانید انجام دهید، وادار میکند.
https://www.youtube.com/watch?v=MIxXlx31Ayk
با نگاهی به آینده، نمیدانم که بهتر است به جای کارفرمایان خود، مالک و کنترل این دوقلو دیجیتال در حال رشد باشیم. در ابتدا، از آنجایی که دوقلوها بدون ما نمی توانند کار کنند، این مسئله مهمی نیست. در نهایت، این دو دوقلو دیجیتال می توانند مسیر کوتاه مدت ما به سوی جاودانگی دیجیتال باشند.
از آنجایی که مرلین دوقلوی دیجیتالی یک تغییر دهنده بازی است و در ابتدا به کاهش استرس و لذت بیشتر شغل ما کمک می کند، آنها تولیدکنندگان هفته هستند.
نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری امارات نیست.