یعنی اگر بتوانند به شناخت سطح ماهی برسند.
برای ادامه، چالمرز از مخاطبانش خواست که استدلال هایی را که ممکن است آگاهی یا احساس را در GPT-3 و موارد مشابه ایجاد یا رد کنند، در نظر بگیرند.
در پاسخ به انتقاد از مدلهای زبان بزرگ، چالمرز استدلال کرد که تابع ضرر آماری به کار گرفته شده توسط چنین مدلهایی ممکن است در حال توسعه مدلهای جهانی باشد. من فکر میکنم که به حداقل رساندن واقعی خطای پیشبینی نیازمند مدلهای عمیقی از جهان است، بسیار قابل قبول است.»
NeurIPS 2022
چالمرز سپس دلایل مخالف آگاهی را بیان کرد. اینها شامل چندین چیز است که یک برنامه هوش مصنوعی ندارد، مانند تجسم بیولوژیکی و حواس. او با استناد به جمله معروف «مغز در کوزه» که حداقل برای فیلسوفان بدون تجسم قابل درک است، گفت: «من خودم کمی به این استدلالها شک دارم.
البته، یک مدل زبان بزرگ، تعیین برخی از پیشرفتهترین فرمهای یادگیری ماشینی امروزی برنامههای هوش مصنوعی، مانند GPT-3، از راهاندازی هوش مصنوعی OpenAI است که میتواند متنی شبیه به انسان تولید کند.
چالمرز گفت، این جنجالها کنجکاوی من را برانگیخت. او عجله ای برای جانبداری نداشت. او پس از بازی با LaMDA، گفت: “من به طور ناگهانی هیچ هاللویا نداشتم که در آن احساسات را تشخیص دادم.”
چالمرز در پاسخ به این انتقادات گفت: “به نظر من این چالش وجود دارد که این مخالفتها را به چالش تبدیل کنیم، تا مدلهای زبانی توسعهیافته با مدلهای جهانی قوی و مدلهای خود بسازیم.”
او گفت: «من فکر میکنم شاید کمتر از 10 درصد احتمال معقولی برای داشتن هوشیاری مدلهای زبان فعلی باشد».
او گفت، “سوالات من سوالاتی مانند، خوب، اول، آیا مدل های زبان بزرگ فعلی به طور قابل قبولی آگاه هستند؟ اما شاید مهم تر از آن، آیا مدل های زبان بزرگ آینده و توسعه های آنها آگاهانه هستند؟”
دیوید چالمرز، استاد فلسفه دانشگاه نیویورک، روز دوشنبه موضوعی بسیار بحث برانگیز را به این ترتیب مطرح کرد.
احتمال اینکه پیچیدهترین برنامههای هوش مصنوعی امروزی حساس یا آگاهانه باشند، کمتر از 10 درصد است، اما در یک دهه آینده، برنامههای پیشرو هوش مصنوعی ممکن است 20 درصد یا بیشتر شانس هوشیار بودن داشته باشند.
چالمرز گفت: «ممکن است به خوبی معلوم شود که بهترین راه برای به حداقل رساندن، مثلاً، از دست دادن خطای پیشبینی در طول آموزش، شامل فرآیندهای بسیار جدید، پس از آموزش، مانند مدلهای جهانی است». من فکر میکنم که به حداقل رساندن واقعی خطای پیشبینی نیازمند مدلهای عمیقی از جهان است، بسیار قابل قبول است.» او گفت که شواهدی وجود دارد که مدلهای زبان بزرگ کنونی در حال تولید چنین مدلهای جهانی هستند، هرچند که قطعی نیست.
او گفت: “من 50/50 میتوانم به سیستمهایی با این ظرفیتها برسیم، و 50/50 که اگر سیستمهایی با این ظرفیتها داشته باشیم، آنها آگاه خواهند بود.” “این ممکن است بیش از 20٪ احتمال دارد که ما ممکن است در یک یا دو دهه در برخی از این سیستم ها هوشیاری داشته باشیم.”
چالمرز گفت: «من نمیخواهم در مورد چیزها اغراق کنم. من فکر نمیکنم شواهد قطعی از راه دور وجود داشته باشد که مدلهای زبان بزرگ کنونی آگاهانه هستند؛ با این حال، تواناییهای عمومی چشمگیر آنها حداقل از حمایت اولیه محدودی برخوردار است، فقط حداقل برای جدی گرفتن این فرضیه.
“اگر می بینید که هوش مصنوعی آگاهانه تا جایی پایین تر می آید، آنگاه گروه جدیدی از چالش های اخلاقی بسیار مضطرب را با پتانسیل شکل های جدید بی عدالتی ایجاد می کند.”
منبع: https://www.zdnet.com/article/ai-could-have-20-percent-chance-of-sentience-in-10-years-says-philosopher-david-chalmers/#ftag=RSSbaffb68
چالمرز گفت: اگر در دهه آینده یا هر زمان که به نظر می رسد پاسخ به چالش ممکن باشد، آنگاه این رشته باید با پیامدهای اخلاقی دست و پنجه نرم کند. چالش اخلاقی این است که آیا ما باید وجدان ایجاد کنیم؟ چالمرز گفت.
در عوض، چالمرز تصمیم گرفت که به کل موضوع به عنوان یک تحقیق رسمی به روشی علمی بپردازد. “می دانید، در واقع چه چیزی به نفع آگاهی در یک مدل زبانی بزرگ وجود دارد یا ممکن است وجود داشته باشد، و چه شواهدی ممکن است علیه این باشد؟” او برای تماشاگران قرار داد.
اضافه شده چالمرز، آگاهی باید از هوش، هم در موجودات و هم در هوش مصنوعی متمایز شود. او گفت: «مهم این است که هوشیاری با هوش در سطح انسان یکسان نیست. او گفت: «فکر میکنم این اتفاق نظر وجود دارد که بسیاری از حیوانات غیرانسانی هوشیار هستند»، از جمله موشها، و «مثلاً حتی ماهیها، اکثریت فکر میکنند آنها هوشیاری هستند» و «آگاهی آنها به هوش انسانی نیاز ندارد. “
او گفت که برنامهها «آزمون تورینگ را نمیگذرانند، اما شواهد عمیقتر به این مدلهای زبانی گره خورده است که نشانههایی از هوش عمومی دامنه را نشان میدهند، و در مورد بسیاری از حوزهها استدلال میکنند». چالمرز گفت، این توانایی اگر به خودی خود کافی نباشد، «به عنوان یکی از نشانه های مرکزی آگاهی در نظر گرفته می شود». «کلی بودن» مدلهایی مانند GPT-3، و حتی بیشتر از آن، برنامه کلی گاتو DeepMind، «حداقل دلیل اولیهای برای جدی گرفتن این فرضیه» است.
دیوید چالمرز، استاد فلسفه دانشگاه نیویورک، پیشنهاد می کند: «شاید در ده سال آینده ما ادراک مجازی، کنش زبانی، عوامل یکپارچه با همه این ویژگی ها داشته باشیم، مثلاً از ظرفیت های چیزی مانند ماهی فراتر رود». در حالی که یک برنامه هوشمند در سطح ماهی لزوماً آگاهانه نیست، “شانس مناسبی برای آن وجود خواهد داشت.”