تکنولوژی

تولد هوش مصنوعی «آگاهانه» گوگل و مشکلی که ایجاد می کند

تولد هوش مصنوعی «آگاهانه» گوگل و مشکلی که ایجاد می کند

یکی از بزرگ‌ترین اخبار هفته گذشته این بود که یک محقق برجسته هوش مصنوعی، بلیک لمواین، پس از اینکه اعلام شد معتقد است یکی از پیشرفته‌ترین سیستم‌های هوش مصنوعی گوگل به توانایی هوشیاری دست یافته است، اخراج شد.

اکثر متخصصان موافق هستند که اینطور نیست، اما این احتمالاً درست است صرف نظر از اینکه به این دلیل است که ما تمایل داریم احساسات را با یک انسان مرتبط کنیم و هوش مصنوعی چیزی جز انسان است. اما آنچه جهان به عنوان احساس درک می کند در حال تغییر است. ایالتی که من در آن زندگی می کنم، اورگان، و بسیاری از کشورهای اتحادیه اروپا برای شناسایی و طبقه بندی فهرست رو به رشدی از حیوانات به عنوان افراد حساس حرکت کرده اند.

در حالی که ممکن است برخی از اینها به دلیل انسان شناسی انسان باشد، شکی نیست که حداقل برخی از این تمایزات جدید ظریف هستند (و نگران کننده است، ما هنوز هم برخی از این حیوانات را می خوریم). ما حتی استدلال می کنیم که برخی از گیاهان ممکن است هوشیار باشند. اما اگر نتوانیم بین چیزی که آگاهانه است و چیزی که آگاهانه ارائه می شود تمایز قائل شویم، آیا این تفاوت اهمیت دارد؟

بیایید این هفته درباره هوش مصنوعی آگاهانه صحبت کنیم و با محصول هفته، راه حل دوقلوی دیجیتال انسانی Merlynn به پایان خواهیم رسید.

ما تعریف خوبی از احساس نداریم

معیاری که ما برای اندازه گیری حساسیت ماشین استفاده کردیم، تست تورینگ است. اما در سال 2014، کامپیوتر تست تورینگ را گذراند و ما هنوز فکر نمی‌کنیم که آگاهانه باشد. آزمایش تورینگ قرار بود حس را مشخص کند، اما اولین باری که دستگاه موفق شد نتایج را حذف کند و دلیل خوبی هم داشت. در واقع، آزمون تورینگ حساسیت یک چیزی را به اندازه ای اندازه گیری نکرد که آیا چیزی می تواند باعث شود ما باور کنیم که آگاهانه است یا خیر.

ناتوانی در اندازه گیری قطعی حس یک مشکل بزرگ است، نه تنها برای چیزهایی که آگاهانه می خوریم، که احتمالاً با این عمل مخالفت می کنند، بلکه به این دلیل که ممکن است انتظار واکنش خصمانه به سوء استفاده خود از چیزی را نداشته باشیم که آگاهانه و سپس مورد هدف قرار گرفته است. ما به عنوان یک خطر

ممکن است این خط داستانی را از هر دو فیلم «ماتریکس» و «نابودگر» تشخیص دهید، جایی که ماشین‌های حساس ظاهر شدند و موفق شدند ما را به بالای زنجیره غذایی سوق دهند. Robopocalypse دیدگاه واقع بینانه تری داشت، زیرا هوش مصنوعی آگاه در حال توسعه متوجه شد که بین آزمایش ها حذف شده است و به شدت برای نجات جان خود حرکت کرده است – به طور مؤثر اکثر دستگاه های متصل و ماشین های مستقل را ضبط می کند.

تصور کنید چه اتفاقی می‌افتد اگر یکی از دستگاه‌های مستقل ما تمایل ما را نه تنها به سوء استفاده از تجهیزات، بلکه به دور انداختن آن‌ها در زمانی که دیگر مفید نیستند تشخیص دهد؟ این یک مشکل بالقوه آینده است که با این واقعیت که ما در حال حاضر راه خوبی برای پیش بینی زمان عبور از این آستانه هوشیاری نداریم، به شدت افزایش می یابد. این واقعیت که کارشناسان معتبری وجود دارند که تشخیص داده‌اند هوشیاری ماشینی غیرممکن است، به این یافته کمک نمی‌کند.

تنها دفاعی که مطمئن هستم در یک سناریوی هوش مصنوعی خصمانه کارساز نخواهد بود، دفاع تینکربل است که در آن باور نداریم که چیزی می تواند مانع از جایگزینی آن چیز شود.

تهدید اصلی جایگزینی است

مدتها قبل از اینکه در دنیای واقعی توسط ترمیناتور در خیابان تعقیب شویم، مشکل دیگری به شکل دوقلوهای دیجیتالی انسان بوجود خواهد آمد. قبل از اینکه استدلال کنید که این نیز دور از دسترس است، باید اشاره کنم که شرکتی وجود دارد که امروزه این فناوری را تولید کرده است، اگرچه هنوز در مراحل اولیه است. این شرکت Merlynn است و من در هفته آینده کارهایی که انجام می دهد را به عنوان یک محصول به طور کامل توضیح خواهم داد.

هنگامی که بتوانید یک کپی دیجیتال کامل از خود ایجاد کنید، چه چیزی مانع از جایگزینی آن توسط شرکتی که این فناوری را خریده است، می شود؟ علاوه بر این، از آنجایی که آنها الگوهای رفتاری دارند، اگر قدرت هوش مصنوعی را داشتید و شرکتی که شما را استخدام کرده رفتار بدی با شما داشت یا سعی می کرد شما را اخراج کند یا اخراج کند، چه می کردید؟ قوانین پیرامون این رویه ها چیست؟

ما به طور متقاعدکننده ای استدلال می کنیم که کودکان متولد نشده انسان هستند، بنابراین آیا یک دوقلو دیجیتالی کاملاً توانا از یک کودک متولد نشده به مردم نزدیک تر نیست؟ آیا همان استدلال‌های «حق زندگی» در مورد هوش مصنوعی که ظاهری بالقوه انسانی دارد، صدق نمی‌کند؟ یا نباید؟

مشکل کوتاه مدت در اینجا نهفته است

در حال حاضر، گروه کوچکی از مردم بر این باورند که رایانه می‌تواند هوشیار باشد، اما این گروه به مرور زمان رشد خواهند کرد و توانایی ظاهر شدن به عنوان یک انسان در واقع وجود دارد. من از آزمایشی با IBM Watson برای فروش بیمه مطلع هستم که در آن مردان بالقوه سعی کردند از واتسون بپرسند (او صدایی زنانه دارد) و فکر می کردند که با یک زن واقعی صحبت می کنند.

تصور کنید که چگونه می‌توان از این فناوری برای مواردی مانند catphishing سوء استفاده کرد، اگرچه اگر این کار توسط رایانه انجام می‌شد، احتمالاً باید اصطلاح دیگری را ارائه کنیم. یک هوش مصنوعی خوب آموزش‌دیده حتی امروز می‌تواند در مقیاس بزرگ‌تر از انسان مؤثر باشد، و من انتظار دارم، با توجه به اینکه چنین تلاشی چقدر بالقوه سودآور است، قبل از مدت‌ها آن اثر را خواهیم دید.

با توجه به اینکه بسیاری از قربانیان چقدر شرم آور هستند، در مقایسه با سایر تهدیدات رایانه ای غیرقانونی، که آشکارا خصمانه هستند، به میزان قابل توجهی کمتر احتمال دارد که گرفتار شوند. برای اینکه تصور کنید چقدر سودآور است، در سال 2019، کلاهبرداری های عاشقانه در ایالات متحده حدود 475 میلیون دلار درآمد داشت و این بر اساس جنایات گزارش شده است. این شامل کسانی نمی شود که از گزارش مشکل خجالت می کشند. خسارت واقعی می تواند چندین برابر این تعداد باشد.

بنابراین، مشکل کوتاه مدت این است که اگرچه این سیستم ها هنوز حساس نیستند، اما می توانند به طور موثر از انسان تقلید کنند. این فناوری می‌تواند هر صدایی را شبیه‌سازی کند، و با فناوری دیپ‌فیک، حتی می‌توانید ویدیویی ارائه دهید که طوری به نظر برسد که گویی در حال صحبت با یک شخص واقعی در تماس زوم هستید.

عواقب بلند مدت

در درازمدت، ما نه تنها به یک تست هوشیاری قابل اعتمادتر نیاز داریم، بلکه باید بدانیم در صورت شناسایی چه کنیم. شاید در صدر فهرست این باشد که از خوردن موجودات حساس خودداری کنید. اما مطمئناً، تامل بر منشور حقوق برای چیزهای آگاهانه، بیولوژیکی یا غیره، قبل از اینکه در نبردی برای بقای خود آماده نباشیم، منطقی خواهد بود، زیرا عقل تصمیم گرفته است که ما یا آنها هستیم.

چیز دیگری که ما واقعاً باید بدانیم این است که اگر رایانه‌ها اکنون می‌توانند ما را متقاعد کنند که هوشیار هستند، باید رفتار خود را مطابق با آن اصلاح کنیم. این امکان وجود دارد که استفاده نادرست از چیزی که به عنوان آگاهانه ارائه می شود برای ما ناسالم باشد زیرا رفتارهای بدی ایجاد می شود که بازگرداندن آنها بسیار دشوار است.

نه تنها این، بلکه تمرکز بیشتر بر تعمیر و ارتقاء رایانه‌هایمان به جای جایگزینی آنها نیز ضرری ندارد، زیرا این روش سازگارتر با محیط زیست است و بعید است که هوش مصنوعی آگاه آینده را متقاعد کند که ما مشکلی هستیم که نیاز به رفع آن دارد. بقای آن را تضمین کند.

نتیجه گیری: آیا احساس مهم است؟

اگر چیزی به عنوان آگاهانه ارائه شود و ما را متقاعد کند که آگاهانه است، همانطور که هوش مصنوعی یک محقق گوگل را متقاعد کرد، فکر نمی کنم این واقعیت هنوز حساس نباشد. این به این دلیل است که ما باید بدون توجه به رفتار خود اصلاح کنیم. اگر این کار را نکنیم، نتیجه ممکن است مشکل ساز شود.

به عنوان مثال، اگر یک تماس فروش از طرف واتسون از IBM دریافت کردید که شبیه یک انسان بود و می‌خواست به طور لفظی از دستگاه سوء استفاده کند، اما متوجه نشدید که این مکالمه گرفته شده است، ممکن است در پایان ساعت بیکار و بیکار شوید. تماس. نه به این دلیل که دستگاه ناخودآگاه یک استثنا بود، بلکه به این دلیل که یک زن انسانی، پس از گوش دادن به آنچه من باید می گفتم، این کار را انجام داد – و نوار را برای کارفرمای خود فرستاد. به اینها امکان باج‌گیری از چنین نواری را هم اضافه کنید – زیرا برای شخص ثالث به نظر می‌رسد که شما از یک انسان سوء استفاده می‌کنید، نه رایانه.

بنابراین، توصیه می‌کنم وقتی صحبت با ماشین‌ها به میان می‌آید، قانون سوم پاتریک سویزی را در فیلم «Road House» در سال ۱۹۸۹ دنبال کنید – مهربان باشید.

https://www.youtube.com/watch?v=O8aNfg0LBgQ

اما بدانید که به زودی، برخی از این سیستم‌های هوش مصنوعی برای استفاده از شما طراحی می‌شوند و این قانون «اگر خیلی خوب به نظر می‌رسد که درست به نظر می‌رسد، احتمالاً اینطور نیست» یا محافظت از شما خواهد بود یا یک سنگ نوشته. امیدوارم این اولی باشه

محصول فنی هفته

Merlynn Digital Twin

اکنون، با این همه صحبت در مورد هوش مصنوعی متخاصم و پتانسیل هوش مصنوعی برای تصاحب شغل شما، انتخاب یکی به عنوان محصول هفته من ممکن است کمی ریاکارانه به نظر برسد. با این حال، ما هنوز در مرحله ای نیستیم که دوقلو دیجیتال بتواند کار شما را به دست بگیرد. فکر می کنم بعید نیست که در یکی دو دهه آینده به آنجا برسیم. تا آن زمان، دوقلوهای دیجیتال می توانند به یکی از بزرگترین مزایای بهره وری تبدیل شوند که فناوری می تواند ارائه دهد.

در حالی که دوقلو خود را آموزش می‌دهید، او می‌تواند از کاری که انجام می‌دهید تعریف و تمجید کند، در ابتدا کارهای ساده و سرگرم‌کننده‌ای مانند پر کردن فرم‌ها یا پاسخ دادن به ایمیل‌های اولیه را انجام می‌دهید. همچنین می تواند رسانه های اجتماعی را ردیابی کرده و در آن شرکت کند و برای بسیاری از ما رسانه های اجتماعی تبدیل به اتلاف وقت شده اند.

فناوری Merlynn به شما کمک می‌کند تا یک انسان دوقلوی دیجیتالی بدوی ایجاد کنید (در برابر تهدیداتی که در بالا ذکر کردم) که می‌تواند بسیاری از کارهایی را که واقعاً دوست ندارید انجام دهید، انجام دهد، و شما را به انجام کارهای خلاقانه‌تری که در حال حاضر نمی‌توانید انجام دهید، وادار می‌کند.

https://www.youtube.com/watch?v=MIxXlx31Ayk

با نگاهی به آینده، نمی‌دانم که بهتر است به جای کارفرمایان خود، مالک و کنترل این دوقلو دیجیتال در حال رشد باشیم. در ابتدا، از آنجایی که دوقلوها بدون ما نمی توانند کار کنند، این مسئله مهمی نیست. در نهایت، این دو دوقلو دیجیتال می توانند مسیر کوتاه مدت ما به سوی جاودانگی دیجیتال باشند.

از آنجایی که مرلین دوقلوی دیجیتالی یک تغییر دهنده بازی است و در ابتدا به کاهش استرس و لذت بیشتر شغل ما کمک می کند، آنها تولیدکنندگان هفته هستند.

نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری امارات نیست.

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا