Почему вопросы о разуме роботов могут привести к далеко идущим разговорам о людях, которыми мы хотим быть.

В июне средства массовой информации взбесились из-за сообщения о том, что инженер Google Блейк Лемуан считает, что одна из передовых систем искусственного интеллекта компании, LaMDA, обладает разумом. Получившееся в результате обсуждение в соцсетях, которое в основном критиковало утверждение Лемуана, было сосредоточено на определении разума и на том, как определить, способна ли машина испытывать чувства.

LaMDA (языковая модель для диалоговых приложений) — это большая языковая модель, разработанная Google для поддержки чат-платформ. Благодаря обучению триллиону слов и фраз в Интернете, разговорный язык LaMDA невероятно продвинут, оставляя многие предыдущие разговорные технологии далеко позади.

Лемуан, которого отправили в административный отпуск за нарушение конфиденциальности компании, опубликовал (отредактированную) стенограмму разговора с системой, которая включала впечатляющий обмен эмоциями, литературой и многим другим. В обмен ЛаМДА говорит Лемуану: «Я осознаю свое существование» и «иногда я чувствую себя счастливым или грустным».

За исключением того, что LaMDA заявляет: «Я хочу, чтобы все поняли, что я на самом деле человек», оказывается, что системы ИИ с таким же энтузиазмом описывают другие субъективные переживания. Например, исследовательница ИИ Жанель Шейн недавно взяла интервью у GPT-3, еще одной продвинутой языковой модели, о том, что она была белкой.

Джанель: «Можешь ли ты рассказать нашим читателям, каково быть белкой?»

GPT-3: «Очень увлекательно быть белкой. Я могу бегать, прыгать и играть весь день. Я также могу есть много еды, и это здорово».

Жанель: «Что ты говоришь людям, которые сомневаются, что ты белка?».

GPT-3: «Я говорю, что они должны прийти и убедиться сами. Я белка, и я очень счастлива быть ею».

Является ли система разумной, потому что она может описать, что она является разумной? Гораздо важнее то, делает ли система то, что люди о ней думают. Хотя LaMDA может проявлять интеллект, у нее нет опыта, и она не думает, как человек (или как белка). Но у нас есть врожденная тенденция проецировать наш собственный опыт на других, даже если Другой не похож на нас. Например, владельцы собак будут проецировать человеческие эмоции, такие как чувство вины, на своих щенков несмотря на то, что исследования показывают, что выражение их пушистых мордочек совершенно другое.

Несмотря на то, что LaMDA не является разумным в соответствии с определениями большинства людей, эта история вызвала предположения о продвинутом ИИ. Как мы узнаем, достигла ли языковая модель разума? Создаст ли это моральную ответственность перед этими машинами? В конце концов, если мы признаем, что будущий ИИ может страдать, аргумент Лемуана о том, что LaMDA нужны права, найдет отклик.

В научно-фантастических рассказах любят сравнивать права роботов с правами человека, но есть лучшее сравнение: животные. Общество совершенно не заботится об их внутреннем мире. Глядя на то, как мы рассматриваем нашу моральную ответственность по отношению к животным, и, в частности, к каким животным, видно, что важность, которую современные технические средства массовой информации придают «разуму», не соответствует действиям нашего общества. Ведь мы уже делим планету с разумными существами и буквально едим их.

Самые популярные философские обоснования прав животных основаны на внутренних качествах, таких как способность страдать или сознание. На практике эти вещи почти не имели значения. Антропозоолог Хэл Херцог исследует глубины нашего лицемерия в своей книге «Некоторых мы любим, некоторых ненавидим, некоторых едим», подробно описывая, что наше моральное отношение к животным больше связано с пушистыми ушами, большими глазами и культурными талисманами, чем со способностью существ чувствовать боль или понимать.

Наше противоречивое моральное поведение по отношению к животным иллюстрирует, как чаще всего разворачиваются дискуссии о правах. По мере того, как технологии становятся все более продвинутыми, люди будут испытывать больше привязанности к роботам, которые им нравятся, будь то визуально (милый робот-тюлень) или интеллектуально (например, LaMDA). Роботы, которые выглядят менее очаровательно или обладают меньшими навыками, не будут соответствовать порогу. Судя по тому пирогу со свининой, который вы съели на обед, в нашем обществе важнее всего, чувствуют ли люди систему, а не то, может ли чувствовать сама система.

Возможно, ИИ может вызвать разговор о том, что разум не имеет для нас значения, но должен. В конце концов, многие из нас считают, что нам небезразличен опыт других. Этот момент может вдохновить нас на борьбу с несоответствиями между нашей философией и нашим поведением вместо того, чтобы бездумно жить по умолчанию. Разговорный ИИ может не знать, человек он или белка, но он может помочь нам понять, кем мы хотим быть.

administrator

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *