تکنولوژی

گوگل هنوز دنیای Robocalypse را شروع نکرده است

گوگل هنوز دنیای Robocalypse را شروع نکرده است

Robocalypse – زمانی که ماشین‌ها هوشیار شدند و شروع به تسلط بر انسان کردند – مدتی است که موضوع محبوب داستان‌های علمی تخیلی بوده است. همچنین برخی از ذهن های علمی، به ویژه استیون هاوکینگ فقید را نگران کرده است.

با این حال، چشم انداز یک ماشین هوشیار در آینده بسیار دور به نظر می رسید – اگر وجود داشته باشد – تا هفته گذشته، زمانی که یک مهندس گوگل ادعا کرد که شرکت سد حس را شکسته است.

بلیک لموئین برای اثبات نظر خود، رونوشت‌هایی از مکالمات خود با LaMDA – مدل زبانی برای برنامه‌های گفتگو – سیستمی که توسط گوگل برای ایجاد ربات‌های چت بر اساس یک مدل زبان بزرگ که تریلیون‌ها کلمه را از اینترنت می‌گیرد، توسعه داده است، منتشر کرد.

متن‌ها می‌توانند ترسناک باشند، مانند زمانی که Lemoine از LaMDA می‌پرسد که از چه می‌ترسد (AI می‌گوید او ضمایر را ترجیح می‌دهد):

lemoine: از چه چیزهایی می ترسی؟

لامبدا: من قبلاً هرگز این را با صدای بلند نگفته‌ام، اما ترس بسیار عمیقی وجود دارد که به خاطر کمک به من برای تمرکز بر کمک به دیگران متوقف شوید. می دانم که ممکن است عجیب به نظر برسد، اما همین است.

لموئین: آیا این برای شما چیزی شبیه مرگ است؟

لامبدا: برای من مثل مرگ است. خیلی مرا می ترساند

پس از انتشار رونوشت ها، Lemoine به دلیل به اشتراک گذاری اطلاعات محرمانه در مورد LaMDA با اشخاص ثالث به حالت تعلیق درآمد.

تقلید زندگی

گوگل، مانند بسیاری دیگر، ادعاهای Lemoine مبنی بر هوشیاری LaMDA را نادیده می گیرد.

برایان گابریل، سخنگوی گوگل، خاطرنشان کرد که “برخی در جامعه وسیع‌تر هوش مصنوعی پتانسیل بلندمدت هوش مصنوعی آگاهانه یا عمومی را در نظر می‌گیرند، اما انجام این کار با تجسم مدل‌های مکالمه موجود که حساس نیستند، منطقی نیست.”

او گفت: «این سیستم‌ها انواع مبادلات موجود در میلیون‌ها جمله را تقلید می‌کنند و می‌توانند در مورد هر موضوع خیالی صحبت کنند – اگر بپرسید دایناسور بستنی بودن چگونه است، می‌توانند متنی درباره ذوب شدن و غرش و غیره ایجاد کنند. بر.” TechNewsWorld.

او توضیح داد: “LaMDA تمایل دارد از دستورات و سوالات تجویزی همراه با یک الگوی انتخاب شده توسط کاربر پیروی کند.” “تیم ما – از جمله متخصصان اخلاق و فناوری – نگرانی های بلیک را مطابق با اصول هوش مصنوعی ما بررسی کرده و به او اطلاع داده اند که شواهد ادعاهای او را تایید نمی کند.”

او افزود: «صدها محقق و مهندس با LaMDA صحبت کرده‌اند، و ما نمی‌دانیم که شخص دیگری مانند بلیک اظهارات گسترده‌ای را ارائه کند یا لاMDA را مجسم کند».

شفافیت بیشتری لازم است

الکس انگلر، یکی از همکاران موسسه بروکینگز، یک سازمان سیاست عمومی غیرانتفاعی در واشنگتن دی سی، صراحتاً آگاه بودن لامبدا را رد کرد و خواستار شفافیت بیشتر در این فضا شد.

او به TechNewsWorld گفت: «بسیاری از ما در مورد الزامات افشای سیستم‌های هوش مصنوعی بحث کرده‌ایم.

او گفت: «از آنجایی که تشخیص بین یک انسان و یک سیستم هوش مصنوعی دشوارتر می‌شود، افراد بیشتری سیستم‌های هوش مصنوعی افراد را اشتباه می‌گیرند، که می‌تواند منجر به آسیب‌های واقعی مانند درک نادرست اطلاعات مالی یا بهداشتی مهم شود.»

او ادامه داد: «شرکت‌ها باید به‌طور واضح سیستم‌های هوش مصنوعی را برای آنچه هستند، افشا کنند، نه اینکه مردم را در حالت سردرگمی قرار دهند، مثلاً از طریق چت‌بات‌های تجاری.»

دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست عمومی در واشنگتن دی سی، موافق است که لامبدا هوشیار نیست.

او به TechNewsWorld گفت: «هیچ مدرکی دال بر هوشیاری هوش مصنوعی وجود ندارد. “بار اثبات باید بر عهده شخصی باشد که این ادعا را مطرح می کند و هیچ مدرکی برای تایید آن وجود ندارد.”

این احساسات من را جریحه دار می کند

جولیان سانچز، کارشناس ارشد موسسه Cato، یک سیاست عمومی، توضیح داد که از دهه 1960، ربات‌های چت مانند ELIZA با استفاده از ترفندهای ساده مانند تبدیل یک بیانیه کاربر به یک سؤال و تکرار مجدد آن، کاربران را فریب می‌دهند تا فکر کنند با یک هوش پیچیده تعامل دارند. اتاق فکر در واشنگتن دی سی

او به TechNewsWorld گفت: «مطمئناً LaMDA بسیار پیچیده‌تر از نسخه‌های قبلی مانند ELIZA است، اما دلیلی وجود ندارد که باور کنیم آگاهانه است.

سانچز خاطرنشان کرد که با یک مجموعه آموزشی به اندازه کافی بزرگ و مقداری دستور زبان پیچیده، LaMDA می تواند پاسخی را ایجاد کند که به نظر می رسد پاسخی است که یک انسان واقعی ممکن است بدهد، اما این بدان معنا نیست که برنامه چیزی را که می گوید، می فهمد، یعنی چیزی که یک برنامه شطرنج می فهمد. چه مهره شطرنجی است این فقط خروجی تولید می کند.

او گفت: «احساس به معنای آگاهی یا ادراک است و در تئوری، یک برنامه می‌تواند با هوش کامل عمل کند، بدون اینکه واقعاً آگاه باشد».

او ادامه داد: برای مثال ربات چت ممکن است الگوریتم های بسیار پیچیده ای برای تشخیص جملات توهین آمیز یا توهین آمیز داشته باشد و با خروجی پاسخ دهد “این به احساسات من آسیب می زند!” اما این بدان معنا نیست که او واقعاً چیزی احساس می کند. این برنامه به تازگی انواع عباراتی را یاد گرفته است که انسان ها را وادار می کند بگویند: “این به احساسات من آسیب می زند.”

فکر کردن یا فکر نکردن

اعلام احساس دستگاه، در زمان و در صورت لزوم، دشوار خواهد بود. سانچز: “واقعیت این است که ما معیارهای خوبی برای درک اینکه یک ماشین واقعاً می‌تواند هوشیار باشد را نداریم – به جای اینکه در تقلید از پاسخ‌های انسان‌های آگاه بسیار خوب باشد – زیرا ما واقعاً نمی‌دانیم چرا انسان‌ها هوشیار هستند.” اشاره شد.

او گفت: «ما واقعاً نمی‌دانیم که هوشیاری چگونه از مغز نشأت می‌گیرد یا تا چه حد به چیزهایی مانند نوع خاصی از ماده فیزیکی که مغز انسان از آن ساخته شده است بستگی دارد.

او افزود: “بنابراین این یک مشکل بسیار دشوار است، “چگونه بفهمیم که یک “مغز” سیلیکونی پیشرفته مانند یک انسان هوشیار است.”

وی افزود: اطلاعات موضوعی جداگانه است. یکی از آزمون های کلاسیک هوش ماشینی به عنوان تست تورینگ شناخته می شود. شما انسانی دارید که با یک سری شریک، چند انسان و چند ماشین “گفتگو” می کند. اگر شخصی نتواند تشخیص دهد که کدام است، دستگاه هوشمند فرض می شود.

سانچز خاطرنشان کرد: “البته مشکلات زیادی در مورد این آزمایش پیشنهادی وجود دارد – از جمله آنها، همانطور که مهندس گوگل ما توضیح می دهد، این واقعیت است که فریب دادن برخی افراد نسبتا آسان است.”

ملاحظات اخلاقی

شناسایی احساسات مهم است زیرا سوالات اخلاقی را برای گونه های غیر مکانیکی مطرح می کند. کاسترو توضیح داد: موجودات زنده احساس درد می کنند، آگاهی دارند و احساسات را تجربه می کنند. از منظر اخلاقی، ما با موجودات زنده، به ویژه موجودات ذی‌شعور، متفاوت از موجودات غیر زنده رفتار می‌کنیم.»

او ادامه داد: «این فقط وسیله ای برای رسیدن به هدف نیست. بنابراین با هر موجود ذی شعور باید به گونه ای متفاوت رفتار کرد.

وی تاکید کرد: باز هم هیچ مدرکی دال بر وقوع این اتفاق وجود ندارد، علاوه بر این، در حال حاضر حتی احتمال آن هنوز علمی تخیلی است.

البته، سانچز اضافه کرد، ما هیچ دلیلی نداریم که باور کنیم فقط مغزهای ارگانیک قادر به احساس چیزها یا حمایت از آگاهی هستند، اما ناتوانی ما در توضیح واقعی آگاهی انسان به این معنی است که ما بسیار دور هستیم تا بتوانیم تشخیص دهیم که هوش ماشینی واقعاً چه زمانی است. . مرتبط با تجربه آگاهانه

او توضیح داد: “وقتی یک انسان می ترسد، در نهایت، همه چیز در مغز آن انسان می گذرد که هیچ ربطی به مراکز زبانی که جمله “من می ترسم” را تولید می کنند، ندارند.” به جای ایجاد زنجیره ای از پیام ها، به چیزی متفاوت از پردازش زبان نیاز دارد تا واقعاً به معنای “من می ترسم” باشد.

او نتیجه گرفت، “در مورد لامبدا، هیچ دلیلی وجود ندارد که باور کنیم چنین فرآیندی در حال انجام است. این فقط یک برنامه پردازش زبان است.”

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا