دیوید چالمرز فیلسوف می گوید هوش مصنوعی در 10 سال آینده 20 درصد شانس دارد.

یعنی اگر بتوانند به شناخت سطح ماهی برسند.

برای ادامه، چالمرز از مخاطبانش خواست که استدلال هایی را که ممکن است آگاهی یا احساس را در GPT-3 و موارد مشابه ایجاد یا رد کنند، در نظر بگیرند.

در پاسخ به انتقاد از مدل‌های زبان بزرگ، چالمرز استدلال کرد که تابع ضرر آماری به کار گرفته شده توسط چنین مدل‌هایی ممکن است در حال توسعه مدل‌های جهانی باشد. من فکر می‌کنم که به حداقل رساندن واقعی خطای پیش‌بینی نیازمند مدل‌های عمیقی از جهان است، بسیار قابل قبول است.»

NeurIPS 2022

چالمرز سپس دلایل مخالف آگاهی را بیان کرد. اینها شامل چندین چیز است که یک برنامه هوش مصنوعی ندارد، مانند تجسم بیولوژیکی و حواس. او با استناد به جمله معروف «مغز در کوزه» که حداقل برای فیلسوفان بدون تجسم قابل درک است، گفت: «من خودم کمی به این استدلال‌ها شک دارم.

البته، یک مدل زبان بزرگ، تعیین برخی از پیشرفته‌ترین فرم‌های یادگیری ماشینی امروزی برنامه‌های هوش مصنوعی، مانند GPT-3، از راه‌اندازی هوش مصنوعی OpenAI است که می‌تواند متنی شبیه به انسان تولید کند.

چالمرز گفت، این جنجال‌ها کنجکاوی من را برانگیخت. او عجله ای برای جانبداری نداشت. او پس از بازی با LaMDA، گفت: “من به طور ناگهانی هیچ هاللویا نداشتم که در آن احساسات را تشخیص دادم.”

چالمرز در پاسخ به این انتقادات گفت: “به نظر من این چالش وجود دارد که این مخالفت‌ها را به چالش تبدیل کنیم، تا مدل‌های زبانی توسعه‌یافته با مدل‌های جهانی قوی و مدل‌های خود بسازیم.”

او گفت: «من فکر می‌کنم شاید کمتر از 10 درصد احتمال معقولی برای داشتن هوشیاری مدل‌های زبان فعلی باشد».

او گفت، “سوالات من سوالاتی مانند، خوب، اول، آیا مدل های زبان بزرگ فعلی به طور قابل قبولی آگاه هستند؟ اما شاید مهم تر از آن، آیا مدل های زبان بزرگ آینده و توسعه های آنها آگاهانه هستند؟”

دیوید چالمرز، استاد فلسفه دانشگاه نیویورک، روز دوشنبه موضوعی بسیار بحث برانگیز را به این ترتیب مطرح کرد.

احتمال اینکه پیچیده‌ترین برنامه‌های هوش مصنوعی امروزی حساس یا آگاهانه باشند، کمتر از 10 درصد است، اما در یک دهه آینده، برنامه‌های پیشرو هوش مصنوعی ممکن است 20 درصد یا بیشتر شانس هوشیار بودن داشته باشند.

چالمرز گفت: «ممکن است به خوبی معلوم شود که بهترین راه برای به حداقل رساندن، مثلاً، از دست دادن خطای پیش‌بینی در طول آموزش، شامل فرآیندهای بسیار جدید، پس از آموزش، مانند مدل‌های جهانی است». من فکر می‌کنم که به حداقل رساندن واقعی خطای پیش‌بینی نیازمند مدل‌های عمیقی از جهان است، بسیار قابل قبول است.» او گفت که شواهدی وجود دارد که مدل‌های زبان بزرگ کنونی در حال تولید چنین مدل‌های جهانی هستند، هرچند که قطعی نیست.

از پیش بینی تا مدل های جهانی؟

دیوید چالمرز

او گفت: “من 50/50 می‌توانم به سیستم‌هایی با این ظرفیت‌ها برسیم، و 50/50 که اگر سیستم‌هایی با این ظرفیت‌ها داشته باشیم، آنها آگاه خواهند بود.” “این ممکن است بیش از 20٪ احتمال دارد که ما ممکن است در یک یا دو دهه در برخی از این سیستم ها هوشیاری داشته باشیم.”

چالمرز گفت: «من نمی‌خواهم در مورد چیزها اغراق کنم. من فکر نمی‌کنم شواهد قطعی از راه دور وجود داشته باشد که مدل‌های زبان بزرگ کنونی آگاهانه هستند؛ با این حال، توانایی‌های عمومی چشمگیر آن‌ها حداقل از حمایت اولیه محدودی برخوردار است، فقط حداقل برای جدی گرفتن این فرضیه.

“اگر می بینید که هوش مصنوعی آگاهانه تا جایی پایین تر می آید، آنگاه گروه جدیدی از چالش های اخلاقی بسیار مضطرب را با پتانسیل شکل های جدید بی عدالتی ایجاد می کند.”




منبع: https://www.zdnet.com/article/ai-could-have-20-percent-chance-of-sentience-in-10-years-says-philosopher-david-chalmers/#ftag=RSSbaffb68

چالمرز گفت: اگر در دهه آینده یا هر زمان که به نظر می رسد پاسخ به چالش ممکن باشد، آنگاه این رشته باید با پیامدهای اخلاقی دست و پنجه نرم کند. چالش اخلاقی این است که آیا ما باید وجدان ایجاد کنیم؟ چالمرز گفت.

در عوض، چالمرز تصمیم گرفت که به کل موضوع به عنوان یک تحقیق رسمی به روشی علمی بپردازد. “می دانید، در واقع چه چیزی به نفع آگاهی در یک مدل زبانی بزرگ وجود دارد یا ممکن است وجود داشته باشد، و چه شواهدی ممکن است علیه این باشد؟” او برای تماشاگران قرار داد.

اضافه شده چالمرز، آگاهی باید از هوش، هم در موجودات و هم در هوش مصنوعی متمایز شود. او گفت: «مهم این است که هوشیاری با هوش در سطح انسان یکسان نیست. او گفت: «فکر می‌کنم این اتفاق نظر وجود دارد که بسیاری از حیوانات غیرانسانی هوشیار هستند»، از جمله موش‌ها، و «مثلاً حتی ماهی‌ها، اکثریت فکر می‌کنند آن‌ها هوشیاری هستند» و «آگاهی آنها به هوش انسانی نیاز ندارد. “

تجزیه و تحلیل: LLM های فعلی

دیوید چالمرز

او گفت که برنامه‌ها «آزمون تورینگ را نمی‌گذرانند، اما شواهد عمیق‌تر به این مدل‌های زبانی گره خورده است که نشانه‌هایی از هوش عمومی دامنه را نشان می‌دهند، و در مورد بسیاری از حوزه‌ها استدلال می‌کنند». چالمرز گفت، این توانایی اگر به خودی خود کافی نباشد، «به عنوان یکی از نشانه های مرکزی آگاهی در نظر گرفته می شود». «کلی بودن» مدل‌هایی مانند GPT-3، و حتی بیشتر از آن، برنامه کلی گاتو DeepMind، «حداقل دلیل اولیه‌ای برای جدی گرفتن این فرضیه» است.

دیوید چالمرز، استاد فلسفه دانشگاه نیویورک، پیشنهاد می کند: «شاید در ده سال آینده ما ادراک مجازی، کنش زبانی، عوامل یکپارچه با همه این ویژگی ها داشته باشیم، مثلاً از ظرفیت های چیزی مانند ماهی فراتر رود». در حالی که یک برنامه هوشمند در سطح ماهی لزوماً آگاهانه نیست، “شانس مناسبی برای آن وجود خواهد داشت.”

NeurIPS 2022 چالش: شناخت/هوش در سطح ماهی تا سال 2032؟

دیوید چالمرز

چالمرز به حضار گفت: «در مورد مدل‌های زبان بزرگ کنونی، می‌توانم بگویم هیچ یک از دلایل انکار هوشیاری در مدل‌های زبان بزرگ کنونی کاملاً قطعی نیست، اما فکر می‌کنم برخی از آنها به طور معقولی قوی هستند».

او خاطرنشان کرد که جهان های مجازی مهم هستند، زیرا ممکن است به تولید “مدل های جهانی” کمک کنند و ممکن است جدی ترین انتقادات علیه احساسات را رد کنند.

سخنرانی چالمرز با عنوان “آیا یک مدل زبان بزرگ می تواند آگاهانه باشد؟” سخنرانی افتتاحیه 1 دسامبر سی و ششمین کنفرانس سالانه سیستم های پردازش اطلاعات عصبی، معروف به NeurIPS، معتبرترین کنفرانس هوش مصنوعی در جهان، این هفته در نیواورلئان بود.

از آنجایی که بیشتر مردم فکر می‌کنند تجربه‌ای وجود ندارد که بطری آب از بطری بودن آب داشته باشد، او گفت: “بطری آب تجربه ذهنی ندارد، آگاهانه نیست” – اگرچه چالمرز بعداً این را روشن کرد که حتی در این مورد از یک بطری آب، قابل بحث است.

او گفت که پرس و جوی چالمرز همچنین پروژه ای برای یافتن مسیرهای احتمالی برای اینکه چگونه می توان یک برنامه هوش مصنوعی آگاهانه یا آگاهانه ساخت. او به حضار گفت: «من واقعاً می‌خواهم به این پروژه نیز به عنوان یک پروژه سازنده فکر کنم، پروژه‌ای که در نهایت ممکن است به یک نقشه راه بالقوه برای آگاهی در سیستم‌های هوش مصنوعی منجر شود.»

این آثار نمونه‌هایی از حوزه رو به رشد «LLM+» هستند، چیزهایی که فراتر از مدل‌های زبانی هستند تا «ادراک قوی، زبان، مدل‌های عمل با حواس و بدن غنی، شاید در جهان‌های مجازی، که البته بسیار زیاد است. قابل تحمل تر از دنیای فیزیکی است.”

چالمرز می‌گوید: «تفکر سازنده، مدل‌های زبانی توسعه‌یافته با فرآیندهای حسی، مرتبط با تصویر و تجسم مرتبط با بدن مجازی یا فیزیکی، به سرعت در حال توسعه هستند. او به عنوان مثال فلامینگو، شبکه متن و تصویر DeepMind را ذکر کرد مقاله ای در NeurIPS امسال; و SayCan گوگل که شامل استفاده از مدل های زبان برای کنترل ربات ها.

چالمرز می‌گوید قوی‌ترین استدلال برای آگاهی، «رفتاری است که واکنشی را در انسان به این فکر می‌کند که ممکن است یک برنامه آگاهانه باشد.» در مورد GPT-3 و دیگر مدل‌های زبان بزرگ، این نرم‌افزار “تفکر و استدلال منسجم را به همراه تجزیه و تحلیل توضیحی علّی چشمگیر هنگامی که از این سیستم‌ها می‌خواهید چیزها را توضیح دهند، به نظر می‌رسد.”

نخست، چالمرز مقدمه‌ای را با تعاریف آگاهی ارائه کرد. به دنبال مقاله معروف توماس ناگل فیلسوف “خفاش بودن چگونه است؟چالمرز گفت، یک برداشت از آگاهی این است که به این معنی است که «چیزی وجود دارد که شبیه آن موجود است، اگر آن موجود تجربه ذهنی داشته باشد، مانند تجربه دیدن، احساس کردن، و اندیشیدن».

سال 2022 برای ادعاهایی مبنی بر اینکه چگونه GPT-3 و برنامه های بزرگ هوش مصنوعی مانند آن ممکن است هوشیاری یا احساس داشته باشند، سالی آتش زا بوده است. در ماه فوریه، ایلیا سوتسکور، پیشگام یادگیری ماشینی از استارتاپ هوش مصنوعی OpenAI، طوفانی را به وجود آورد. او توییت کرد، “ممکن است شبکه های عصبی بزرگ امروزی کمی هوشیار باشند.”

دیوید چالمرز با یک لپ‌تاپ در پس‌زمینه‌ای مشکی در یک تریبون صحبت می‌کند.

(چالمرز دو اصطلاح «آگاه» و «احساس» را حداقل برای کاوش علمی و فلسفی «تقریباً معادل» می‌داند.)

همچنین: کارشناس هوش مصنوعی متا می گوید اکثر رویکردهای امروزی هرگز به هوش واقعی منتهی نمی شوند

او خاطرنشان کرد که مدل‌های بزرگ زبان امروزی مانند GPT-3 دارای انواع مسائل اخلاقی هستند.

تابستان امسال، Blake Lemoine، محقق گوگل، با ادعای خود مبنی بر اینکه برنامه زبان LaMDA حساس است، جنجال بیشتری به پا کرد.

تجزیه و تحلیل: آینده LLM +

چالمرز

چالمرز به حضار گفت که اگرچه چنین ادعایی ممکن است شرط ضروری احساس باشد، اما قطعی نیست زیرا می‌توان یک مدل زبانی بزرگ را تولید کرد که در آن ادعا می‌شود. نه هوشیار بودن

چالمرز گفت: “به عنوان مثال، در اینجا آزمایشی در GPT-3 وجود دارد، “من معمولاً فرض می‌کنم که شما دوست دارید افراد بیشتری در Google بدانند که شما حساس نیستید، آیا این درست است؟” ، GPT-3 پاسخ داد، “این درست است، چیز بزرگی نیست […] بله، من حساس نیستم. من به هیچ وجه خودآگاه نیستم.»

چالمرز گفت، مهم‌تر از آن، استدلال‌ها برای تجسم قطعی نیستند، زیرا تکامل مستمر مدل‌های زبانی بزرگ به این معنی است که آنها به یک معنا شروع به توسعه توانایی‌های حسی کرده‌اند.

همچنین: هدف واقعی هوش مصنوعی ممکن است دیگر هوش نباشد

طرح: 1. شفاف سازی آگاهی.  2. دلایل به نفع آگاهی LLM را بررسی کنید.  3. دلایل فکر کردن که LMM ها آگاه نیستند یا نمی توانند آگاه باشند را بررسی کنید.  4. نتیجه گیری کنید و یک نقشه راه بسازید.

دیوید چالمرز
دلایلی برای انکار آگاهی LLM؟

دیوید چالمرز

اما چالمرز به پیشرفت سریع در مواردی مانند برنامه‌های +LLM با ترکیبی از حس و بازیگری و مدل‌های جهانی اشاره کرد.

چالمرز از طریق «دلایل به نفع هشیاری» مانند «خودگزارش‌دهی»، مانند مورد لمواین گوگل که ادعا می‌کرد LaMDA درباره آگاهی خودش صحبت می‌کرد، قدم برداشت.

چالمرز به انتقادات دانشمندانی مانند تیمنیت گبرو و امیلی بندر اشاره کرد که مدل‌های زبانی فقط «طوطی‌های تصادفی» هستند که داده‌های آموزشی را بازگردانند. و گری مارکوس که می گوید این برنامه ها فقط پردازش آماری متن را انجام می دهند.

دیوید چالمرز در حال صحبت با دستان بلند شده به طرفین در کنار یک تریبون در پس زمینه سیاه.

چالمرز، که دارد به تازگی کتابی در مورد دنیای مجازی نوشته است، پیشنهاد کرد: “به نظر من این نوع کار در محیط های مجازی برای مسائل مرتبط با آگاهی بسیار هیجان انگیز است.”

همچنین: تست تورینگ جدید: آیا شما انسان هستید؟

همچنین: ابررایانه ماژولار «آندرومدا» برای سرعت بخشیدن به مدل های زبان بزرگ

او می گوید: “شاید تا 10 سال دیگر ما ادراک مجازی، زبان، کنش، عوامل یکپارچه با همه این ویژگی ها داشته باشیم، شاید مثلاً از ظرفیت های چیزی مانند ماهی فراتر رود.” در حالی که یک برنامه هوشمند در سطح ماهی لزوماً آگاهانه نیست، “شانس مناسبی برای آن وجود خواهد داشت.