گوگل چت ربات آزمایشی هوش مصنوعی خود را برای آزمایش عمومی باز می کند


ai-test-kitchen.jpg

تصویر: گوگل

گوگل خود را باز کرده است آشپزخانه تست هوش مصنوعی برنامه تلفن همراه برای ارائه تجربه عملی محدود به همه با آخرین پیشرفت های خود در هوش مصنوعی، مانند مدل مکالمه آن LaMDA.

گوگل در ماه می، AI Test Kitchen را به همراه نسخه دوم LaMDA (مدل زبانی برای برنامه‌های گفتگو) معرفی کرد و اکنون به عموم اجازه می‌دهد بخش‌هایی از آنچه را که فکر می‌کند آینده تعامل انسان و رایانه است آزمایش کنند.

ساندی پیچای، مدیرعامل گوگل در آن زمان گفت: «آشپزخانه تست هوش مصنوعی» به این منظور به شما این حس را می دهد که داشتن LaMDA در دستان شما چگونه است.

AI Test Kitchen بخشی از برنامه گوگل برای اطمینان از توسعه فناوری خود با برخی ریل های ایمنی است. هرکسی میتواند به لیست انتظار بپیوندید برای آشپزخانه تست هوش مصنوعی در ابتدا، برای گروه های کوچک در ایالات متحده در دسترس خواهد بود. برنامه اندروید اکنون در دسترس است، در حالی که برنامه iOS قرار است “در هفته های آینده” ارائه شود.

دیدن: دانشمند داده در مقابل مهندس داده: چگونه تقاضا برای این نقش ها در حال تغییر است

هنگام ثبت نام، کاربر باید با چند چیز موافقت کند، از جمله “من هیچ اطلاعات شخصی در مورد خودم یا دیگران را در تعاملات خود با این دموها وارد نمی کنم”.

مشابه پیش‌نمایش عمومی اخیر متا از مدل هوش مصنوعی چت‌بات خود، BlenderBot 3، گوگل همچنین هشدار می‌دهد که پیش‌نمایش‌های اولیه LaMDA «ممکن است محتوای نادرست یا نامناسب را نشان دهد». متا هنگام باز کردن BlenderBot 3 برای ساکنان ایالات متحده هشدار داد که چت بات ممکن است فراموش کند که یک ربات است و ممکن است “چیزهایی بگوید که ما به آنها افتخار نمی کنیم”.

این دو شرکت اذعان می‌کنند که هوش مصنوعی آنها ممکن است گهگاه از نظر سیاسی نادرست باشد، همانطور که چت ربات مایکروسافت در سال 2016 پس از اینکه مردم با ورودی‌های نامطلوب آن را تغذیه کردند، انجام داد. و مانند متا، گوگل می‌گوید LaMDA برای جلوگیری از دادن پاسخ‌های نادرست و توهین‌آمیز تحت «بهبودهای کلیدی ایمنی» قرار گرفته است.

اما برخلاف متا، به نظر می‌رسد که گوگل رویکردی محدودتر را در پیش گرفته و محدودیت‌هایی را در مورد نحوه برقراری ارتباط عمومی با آن تعیین می‌کند. تا کنون، گوگل فقط LaMDA را در معرض گوگل قرار داده است. باز کردن آن برای عموم ممکن است به Google اجازه دهد تا سرعت بهبود کیفیت پاسخ را تسریع بخشد.

گوگل در حال انتشار AI Test Kitchen به عنوان مجموعه ای از دموها است. اولین مورد، “Imagine it” به شما امکان می دهد مکان را نام ببرید، در نتیجه هوش مصنوعی مسیرهایی را برای “کاوش در تخیل خود” ارائه می دهد.

دومین نسخه نمایشی “List it” به شما امکان می دهد “هدف یا موضوعی را به اشتراک بگذارید” که LaMDA سپس سعی می کند آن را به لیستی از وظایف فرعی مفید تقسیم کند.

سومین نسخه نمایشی «درباره آن صحبت کنید (نسخه سگ‌ها)» است که به نظر می‌رسد آزادانه‌ترین آزمون باشد – البته محدود به مسائل مربوط به سگ‌ها: «می‌توانید یک گفتگوی سرگرم‌کننده و باز درباره سگ‌ها داشته باشید. و فقط سگ هاگوگل می‌گوید، که توانایی LaMDA برای ماندن در موضوع را بررسی می‌کند، حتی اگر سعی کنید از موضوع دور شوید.

LaMDA و BlenderBot 3 بهترین عملکرد را در مدل‌های زبانی که گفتگوی بین رایانه و انسان را شبیه‌سازی می‌کنند، دنبال می‌کنند.

LaMDA یک مدل زبان بزرگ با 137 میلیارد پارامتر است، در حالی که BlenderBot 3 متا یک پارامتر 175 میلیاردی است “مدل گفتگوی قادر به مکالمه دامنه باز با دسترسی به اینترنت و حافظه بلند مدت”.

تست های داخلی گوگل بر روی بهبود ایمنی هوش مصنوعی متمرکز شده است. گوگل می‌گوید که آزمایش‌های متخاصم را برای یافتن نقص‌های جدید در مدل انجام داده است و «تیم قرمز» را به خدمت گرفته است – کارشناسان حمله‌ای که می‌توانند به شیوه‌ای که عموم مردم محدودیت‌ناپذیر می‌توانند بر مدل تأکید کنند – که «خروجی‌های مضر و در عین حال ظریف دیگری را کشف کرده‌اند. ” طبق گفته های تریس وارکنتین از تحقیقات گوگل و جاش وودوارد از آزمایشگاه های گوگل.

در حالی که گوگل می خواهد ایمنی را تضمین کند و از گفتن چیزهای شرم آور هوش مصنوعی خود اجتناب کند، گوگل همچنین می تواند از قرار دادن آن در طبیعت برای تجربه گفتار انسانی که قادر به پیش بینی آن نیست بهره مند شود. کاملاً معضل. برخلاف یکی از مهندسان گوگل که در مورد اینکه آیا LaMDA حساس است یا خیر، گوگل بر چندین محدودیت تاکید می کند که Tay مایکروسافت از آنها در هنگام قرار گرفتن در معرض عموم رنج می برد.

این مدل می‌تواند هدف پشت عبارات هویت را به اشتباه درک کند و گاهی اوقات هنگام استفاده از آنها پاسخی ایجاد نمی‌کند، زیرا در تمایز بین اعلان‌های خوش‌خیم و متخاصم مشکل دارد. همچنین می‌تواند بر اساس سوگیری‌ها در داده‌های آموزشی خود، پاسخ‌های مضر یا سمی ایجاد کند و ایجاد کند. وارکنتین و وودوارد می‌گویند: پاسخ‌هایی که افراد را بر اساس جنسیت یا پیشینه فرهنگی آن‌ها کلیشه و نادرست معرفی می‌کنند.

دیدن: چگونه سه رایانه قدیمی را با ChromeOS Flex احیا کردم

گوگل می‌گوید حفاظت‌هایی که تاکنون اضافه کرده است، هوش مصنوعی آن را ایمن‌تر کرده است، اما خطرات را از بین نبرده است. محافظت‌ها شامل فیلتر کردن کلمات یا عباراتی است که خط‌مشی‌های آن را نقض می‌کنند، که “کاربران را از تولید آگاهانه محتوایی که از نظر جنسی صریح، نفرت‌انگیز یا توهین‌آمیز، خشونت‌آمیز، خطرناک یا غیرقانونی است، یا اطلاعات شخصی را فاش می‌کند منع می‌کند.”

همچنین، کاربران نباید انتظار داشته باشند که گوگل هر آنچه را که در تکمیل نسخه نمایشی LaMDA گفته می شود حذف کند.

“من می‌توانم داده‌هایم را در حین استفاده از یک نسخه نمایشی خاص حذف کنم، اما به محض اینکه نسخه نمایشی را ببندم، داده‌های من به گونه‌ای ذخیره می‌شوند که Google نتواند بگوید چه کسی آن را ارائه کرده است و دیگر نمی‌تواند هیچ درخواست حذفی را انجام دهد.” در فرم رضایت نامه آمده است.


منبع: https://www.zdnet.com/article/google-opens-up-its-experimental-ai-chatbot-for-public-testing/#ftag=RSSbaffb68