LaMDA: Езиковият модел на Google издига разговорите между човек и машина

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

LaMDA: Езиковият модел на Google издига разговорите между човек и машина

LaMDA: Езиковият модел на Google издига разговорите между човек и машина

Подзаглавен текст
Езиковият модел за приложения за диалог (LaMDA) може да позволи на изкуствения интелект да звучи по-човешки.
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Януари 3, 2023

    LaMDA на Google има за цел да симулира човешки разговори, които са органични и смислени. За да направят това, инженерите на фирмата разработиха методология за обучение за синтезиране на информация, вместо да следват алгоритми. Тази функция позволява на инструмента да разбира контекста по-лесно и да реагира по съответния начин.

    Контекст на LaMDA

    Непредвидимата и понякога неструктурирана природа на човешката реч представлява истинско предизвикателство за чатботовете и виртуалните асистенти. Тъй като традиционните езикови модели използват предварително програмирана информация, за да участват в човешки разговори, те са склонни внезапно да стигнат до задънена улица, когато техните данни за обучение вече не могат да разберат човешките разсъждения и намерения. Google се опитва да промени тази неестествена прогресия чрез LaMDA. Езиковият модел е изграден върху Transformer, невронна мрежова система с отворен код на Google Research. Тази архитектура генерира модел, който може да бъде обучен да интерпретира много думи (например изречение или абзац), да се съсредоточи върху това как тези термини са свързани и след това да предвиди какви думи смята, че ще последват.

    По време на годишната конференция за разработчици (I/O) на Google през 2022 г. главният изпълнителен директор Сундар Пичай демонстрира подобрените възможности на LaMDA 2.0. Фирмата пусна тестов комплект за разработчици, наречен приложение AI Test Kitchen. В това приложение три демонстрации демонстрират възможностите на LaMDA. 

    Първата функция беше Imagine It, където от LaMDA се иска да опише или „да си представи“ различни видове сценарии. Например, потребителят може да помоли модела да обясни гледките, звуците и усещането да си в Марианската падина. 
    Следващата демонстрация беше Talk About It, където LaMDA участва в разговор около една основна тема. Без значение колко потребителят въвежда идеи извън темата, моделът винаги се опитва да насочи разговора обратно към първоначалната тема. 
    И накрая, имаше List It, където LaMDA разбива една основна цел на подходящи подзадачи. Например, потребителят може да поиска съвети как да построи зеленчукова градина, а моделът предлага различни мини задачи, които потребителят може да започне да изпълнява, като например изброяване на зеленчуците, които искат да засадят, и знанието откъде да купи най-добрите семена. 

    Разрушително въздействие

    Според статията на Google за LaMDA, тя е проектирала инструмента, за да се придържа към принципите на AI на компанията. Въпреки че езикът е невероятен инструмент, понякога може да се злоупотребява с него. Моделите, които се учат от езика, могат в крайна сметка да продължат тази злоупотреба, като научават и повтарят пристрастия, реч на омраза или невярна информация. Дори когато моделът се обучава само на точни данни, той все още може да бъде променен за неетични цели. Решението на Google е да създаде ресурси с отворен код, които канят други изследователи да анализират данните за обучение на LaMDA. 

    Повишаващите се нива на чувствителност, специфичност и интересност на инструмента (SSI, оценени от човешки оценители) създават по-полезни възможности за виртуални асистенти и чатботове. Вместо просто да се подчиняват на заповеди, тези ботове скоро могат да водят отворени разговори, да предлагат алтернативни решения, да искат разяснения и просто да бъдат като цяло ангажиращи събеседници. 

    Тези характеристики ги правят по-подходящи за разговори с клиенти. Един пример може да включва виртуални екскурзоводи, които биха могли да представят фонова или историческа информация по-свързано, в зависимост от въпросите, зададени от туристите. Бизнес чатботовете биха могли да се справят с всички притеснения на клиентите, независимо от сложността. Правителствените агенции могат да създават AI ръководства, които могат да помогнат на гражданите да се възползват от обществени услуги. Докато LaMDA все още има да извърви дълъг път, преди да успее да достигне това комерсиално ниво на полезност, нейният непрекъснат напредък е обещаващ за областта на обработката на естествен език (NLP) като цяло. 

    Последици от LaMDA

    По-широките последици от LaMDA могат да включват: 

    • Клиентските чатботове и дигиталните асистенти продължават да се подобряват от година на година. Тази тенденция може да накара хората да вярват, че говорят с друго човешко същество онлайн или по телефона.
    • LaMDA непрекъснато се обучава да идентифицира нюанси в акценти, диалекти, културна употреба на думи, жаргон и други речеви модели.
    • Повече клиенти искат пълно разкриване и прозрачност, когато чатбот ги ангажира по телефона.
    • Измамници, които се опитват да използват интелигентни чатботове, за да подмамят хората/жертвите да издадат чувствителна информация чрез имитиране на гласове или говорни модели.
    • Нарастващият риск от пристрастност на алгоритмите поради данни за обучение, написани от хора, което може да засили расизма и дискриминацията.

    Въпроси за коментар

    • Как LaMDA или други AI събеседници могат да подобрят обществените услуги?
    • Какви са другите начини, по които един по-добър AI събеседник може да улесни живота ви?

    Препратки към Insight

    Следните популярни и институционални връзки бяха посочени за тази информация: