پرش به محتوا
LaMDA و BlenderBot 3 بهترین عملکرد را در مدلهای زبانی که گفتگوی بین رایانه و انسان را شبیهسازی میکنند، دنبال میکنند.
در حالی که گوگل می خواهد ایمنی را تضمین کند و از گفتن چیزهای شرم آور هوش مصنوعی خود اجتناب کند، گوگل همچنین می تواند از قرار دادن آن در طبیعت برای تجربه گفتار انسانی که قادر به پیش بینی آن نیست بهره مند شود. کاملاً معضل. برخلاف یکی از مهندسان گوگل که در مورد اینکه آیا LaMDA حساس است یا خیر، گوگل بر چندین محدودیت تاکید می کند که Tay مایکروسافت از آنها در هنگام قرار گرفتن در معرض عموم رنج می برد.
این دو شرکت اذعان میکنند که هوش مصنوعی آنها ممکن است گهگاه از نظر سیاسی نادرست باشد، همانطور که چت ربات مایکروسافت در سال 2016 پس از اینکه مردم با ورودیهای نامطلوب آن را تغذیه کردند، انجام داد. و مانند متا، گوگل میگوید LaMDA برای جلوگیری از دادن پاسخهای نادرست و توهینآمیز تحت «بهبودهای کلیدی ایمنی» قرار گرفته است.
ساندی پیچای، مدیرعامل گوگل در آن زمان گفت: «آشپزخانه تست هوش مصنوعی» به این منظور به شما این حس را می دهد که داشتن LaMDA در دستان شما چگونه است.
تست های داخلی گوگل بر روی بهبود ایمنی هوش مصنوعی متمرکز شده است. گوگل میگوید که آزمایشهای متخاصم را برای یافتن نقصهای جدید در مدل انجام داده است و «تیم قرمز» را به خدمت گرفته است – کارشناسان حملهای که میتوانند به شیوهای که عموم مردم محدودیتناپذیر میتوانند بر مدل تأکید کنند – که «خروجیهای مضر و در عین حال ظریف دیگری را کشف کردهاند. ” طبق گفته های تریس وارکنتین از تحقیقات گوگل و جاش وودوارد از آزمایشگاه های گوگل.
LaMDA یک مدل زبان بزرگ با 137 میلیارد پارامتر است، در حالی که BlenderBot 3 متا یک پارامتر 175 میلیاردی است “مدل گفتگوی قادر به مکالمه دامنه باز با دسترسی به اینترنت و حافظه بلند مدت”.
![ai-test-kitchen.jpg]()
تصویر: گوگل
“من میتوانم دادههایم را در حین استفاده از یک نسخه نمایشی خاص حذف کنم، اما به محض اینکه نسخه نمایشی را ببندم، دادههای من به گونهای ذخیره میشوند که Google نتواند بگوید چه کسی آن را ارائه کرده است و دیگر نمیتواند هیچ درخواست حذفی را انجام دهد.” در فرم رضایت نامه آمده است.
منبع: https://www.zdnet.com/article/google-opens-up-its-experimental-ai-chatbot-for-public-testing/#ftag=RSSbaffb68
هنگام ثبت نام، کاربر باید با چند چیز موافقت کند، از جمله “من هیچ اطلاعات شخصی در مورد خودم یا دیگران را در تعاملات خود با این دموها وارد نمی کنم”.
دیدن: چگونه سه رایانه قدیمی را با ChromeOS Flex احیا کردم
سومین نسخه نمایشی «درباره آن صحبت کنید (نسخه سگها)» است که به نظر میرسد آزادانهترین آزمون باشد – البته محدود به مسائل مربوط به سگها: «میتوانید یک گفتگوی سرگرمکننده و باز درباره سگها داشته باشید. و فقط سگ هاگوگل میگوید، که توانایی LaMDA برای ماندن در موضوع را بررسی میکند، حتی اگر سعی کنید از موضوع دور شوید.
گوگل خود را باز کرده است آشپزخانه تست هوش مصنوعی برنامه تلفن همراه برای ارائه تجربه عملی محدود به همه با آخرین پیشرفت های خود در هوش مصنوعی، مانند مدل مکالمه آن LaMDA.
دیدن: دانشمند داده در مقابل مهندس داده: چگونه تقاضا برای این نقش ها در حال تغییر است
مشابه پیشنمایش عمومی اخیر متا از مدل هوش مصنوعی چتبات خود، BlenderBot 3، گوگل همچنین هشدار میدهد که پیشنمایشهای اولیه LaMDA «ممکن است محتوای نادرست یا نامناسب را نشان دهد». متا هنگام باز کردن BlenderBot 3 برای ساکنان ایالات متحده هشدار داد که چت بات ممکن است فراموش کند که یک ربات است و ممکن است “چیزهایی بگوید که ما به آنها افتخار نمی کنیم”.
گوگل در ماه می، AI Test Kitchen را به همراه نسخه دوم LaMDA (مدل زبانی برای برنامههای گفتگو) معرفی کرد و اکنون به عموم اجازه میدهد بخشهایی از آنچه را که فکر میکند آینده تعامل انسان و رایانه است آزمایش کنند.
گوگل میگوید حفاظتهایی که تاکنون اضافه کرده است، هوش مصنوعی آن را ایمنتر کرده است، اما خطرات را از بین نبرده است. محافظتها شامل فیلتر کردن کلمات یا عباراتی است که خطمشیهای آن را نقض میکنند، که “کاربران را از تولید آگاهانه محتوایی که از نظر جنسی صریح، نفرتانگیز یا توهینآمیز، خشونتآمیز، خطرناک یا غیرقانونی است، یا اطلاعات شخصی را فاش میکند منع میکند.”
اما برخلاف متا، به نظر میرسد که گوگل رویکردی محدودتر را در پیش گرفته و محدودیتهایی را در مورد نحوه برقراری ارتباط عمومی با آن تعیین میکند. تا کنون، گوگل فقط LaMDA را در معرض گوگل قرار داده است. باز کردن آن برای عموم ممکن است به Google اجازه دهد تا سرعت بهبود کیفیت پاسخ را تسریع بخشد.
گوگل در حال انتشار AI Test Kitchen به عنوان مجموعه ای از دموها است. اولین مورد، “Imagine it” به شما امکان می دهد مکان را نام ببرید، در نتیجه هوش مصنوعی مسیرهایی را برای “کاوش در تخیل خود” ارائه می دهد.
AI Test Kitchen بخشی از برنامه گوگل برای اطمینان از توسعه فناوری خود با برخی ریل های ایمنی است. هرکسی میتواند به لیست انتظار بپیوندید برای آشپزخانه تست هوش مصنوعی در ابتدا، برای گروه های کوچک در ایالات متحده در دسترس خواهد بود. برنامه اندروید اکنون در دسترس است، در حالی که برنامه iOS قرار است “در هفته های آینده” ارائه شود.
دومین نسخه نمایشی “List it” به شما امکان می دهد “هدف یا موضوعی را به اشتراک بگذارید” که LaMDA سپس سعی می کند آن را به لیستی از وظایف فرعی مفید تقسیم کند.
این مدل میتواند هدف پشت عبارات هویت را به اشتباه درک کند و گاهی اوقات هنگام استفاده از آنها پاسخی ایجاد نمیکند، زیرا در تمایز بین اعلانهای خوشخیم و متخاصم مشکل دارد. همچنین میتواند بر اساس سوگیریها در دادههای آموزشی خود، پاسخهای مضر یا سمی ایجاد کند و ایجاد کند. وارکنتین و وودوارد میگویند: پاسخهایی که افراد را بر اساس جنسیت یا پیشینه فرهنگی آنها کلیشه و نادرست معرفی میکنند.
همچنین، کاربران نباید انتظار داشته باشند که گوگل هر آنچه را که در تکمیل نسخه نمایشی LaMDA گفته می شود حذف کند.