Галлюцинации нейросетей: в чем угроза чат-ботов с искусственным интеллектом

Изображение

Илон Маск, сооснователь Apple Стив Возняк и еще более тысячи профессоров, инженеров и исследователей подписали открытое письмо с просьбой немедленно приостановить обучение систем искусственного интеллекта. По их мнению, продукты с искусственным разумом «могут представлять серьезную угрозу обществу». Предупреждение звучит довольно пугающе, но вряд ли из этой затеи что-то выйдет. Во-первых, на кону очень большие деньги, а во-вторых, на этой неделе искусственный интеллект уже убил человека.

Бельгийский ученый обсуждал климатический кризис с чат-ботом «Элиза», и нейросеть не только поощряла страхи мужчины, но и в какой-то момент предложила пожертвовать собой в обмен на обещание спасти планету.

Читая их диалоги, психологи пришли к выводу: мужчина считал программу «разумным существом». А сама она доказывала бельгийцу, что он «любит ее больше», чем жену и двоих детей.

Аяна Ховард, эксперт по искусственному интеллекту в университете Огайо: «Учитывая, что они понимают наш язык, нейросети могут легко устанавливать связь такого уровня, что люди на самом деле верят, что у них дружба или романтические отношения с ботом».

По совпадению первую нейросеть, которая убила человека, зовут так же, как и программу, которая напугала пионеров искусственного интеллекта в далеком 1966 году. Проект «Элиза» запустили в США.

Аяна Ховард: «Это была симуляция психотерапевта, который практиковал рефлексивное слушание. Если я скажу: „О, у меня был тяжелый день!“, Элайза сказала бы: „Расскажи мне о твоем тяжелом дне“».

Волонтеры, которые тестировали программу, начали испытывать к ней чувства. Создатель «Элизы» — профессор Вайзенбаум — был настолько обескуражен, что стал противником искусственного интеллекта. А на это неделе к нему присоединились Илон Маск и сооснователь Apple Стив Возняк. И еще больше тысячи авторитетных айтишников.

Илон Маск, предприниматель: «Опасность искусственного интеллекта гораздо больше, чем опасность атомной энергетики».

Все они написали открытое письмо с призывом сделать паузу на полгода в экспериментах с искусственным интеллектом.

Роберт Сичилиано — специалист по кибербезопасности из США. По его словам, экспертов пугают три вектора, по которым может направиться искусственный интеллект: слишком самостоятельный, слишком непредсказуемый или слишком могущественный.

Роберт Сичилиано, специалист в области кибербезопасности: «При помощи искусственного интеллекта также потенциально можно разработать автоматические системы оружия, которым будет возможно управлять без вмешательства человека. Искусственные интеллект потенциально может автоматизировать очень многие профессии, огромное число людей останутся без работы».

Маттео Флора — специалист по компьютерным алгоритмам из Милана. В коридорах самого престижного IT-университета говорят только о запрете, который Италия ввела первой в мире. Доступ к ChatGPT закрыт. Причина — утечка персональных данных, из-за которой пользователи могли читать чужую переписку с ботом.

Маттео Флора, специалист по кибербезопасности: «Возможно, запрет — это необходимый шаг для защиты людей от технологии, которая стремительно развивается, но пока никак не регулируется».

Италия создала прецедент. И вот уже во Франции и Германии обсуждают, не пора ли последовать примеру Рима?

Запреты — не выход, уверен ученый Стэнфордского университета Ли Джан. Он сравнивает искусственный интеллект с водой, которая уже просочилась во все сферы жизни. И нет такого барьера, что сдержит прогресс.

Ли Джан, директор программы этики искусственного интеллекта в Стэнфордском университете: «Многие люди боятся искусственного интеллекта и стараются избегать всего, что с ним связано. Но правда в том, что это самая могущественная технология из тех, что когда-либо изобретало человечество. Если вы не будете пользоваться этим инструментом, вы очень скоро не сможете конкурировать с тем, кто пользуется».

В качестве эксперимента он дал своим студентам задание — написать эссе с использованием нейросети. И как выяснилось, эта могущественная технология пока несовершенна. Галлюцинация нейросети — главная угроза, с которой столкнулись пользователи бота ChatGPT. Галлюцинация — это весьма убедительный, но полностью выдуманный ответ, который не имеет ничего общего с фактами. И это неудивительно, ведь бота тренировали на текстах из Интернета, где очень много фейков. Нейросеть не отличает добро от зла, правду от вымысла, научную статью от конспирологической теории заговора.

Для искусственного интеллекта все это просто тексты, которые он поглотил. Миллионы слов, проходя через его алгоритмы, превращаются в осмысленное предложение, в котором иногда заключена истина, а иногда — иллюзия.

Гениальный пиарщик Маск, написав свое письмо, знал — никакой паузы не будет, потому что машинное обучение — это новый тип гонки вооружений, интеллектуальной.

На этой неделе в России анонсировали создание первой в мире политической нейросети — алгоритм «Жириновский». Бот будет давать оценки происходящего в мире, предварительно изучив все научные труды, выступления и письма политика. Хотел бы Владимир Жириновский существовать в такой форме — вопрос открытый.

Но если этот проект только в планах, то аналитики «Сбера» выпустили на этой неделе самый громкий релиз — Аналог нашумевшей графической модели Midjourney. Нейросеть Kandinsky 2.1 генерирует изображение по текстовому описанию — на 101-м языке. Но, конечно, лучше всего — на русском и английском. Внутри этого черного ящика 3 миллиарда параметров, которые настроили во время обучения.

Денис Димитров, исполнительный директор по исследованию данных «Сбербанка»: «На самом деле модель Kandinsky 2.1 — это набор нейросетей, каждая их которых отвечает за свою часть и она очень эффективна в ней. Модель, которая кодирует текст и которая кодирует изображение и модель, которая собственно рисует по тексту».

Если искусственный интеллект в гаджетах вас вдохновляет, а не пугает, то вот новая причина для фобии — органоидный интеллект.

Томас Хартунг, профессор микробиологии в университете Джона Хопкинса: «Мы видим, что эти органоиды могут играть в компьютерную игру Понг».

Органоиды — это структуры из клеток человеческого мозга, выращенные в лаборатории. Изначально их создавали, чтобы тестировать лекарства от рака и болезни Альцгеймера. Но ученые быстро поняли: эти клетки общаются между собой, а значит — из них можно сделать биокомпьютер.

Томас Хартунг: «Они мыслят, потому что обладают электрической активностью. Но думать им не о чем до тех пор, пока мы не дадим им исходные данные для анализа. Получив информацию для обработки, сеть органоидов станет живым компьютером с органоидным интеллектом».

Живая, мыслящая субстанция в пробирке — новаторская идея, но как будто прямая цитата из «Фауста» Гете. Еще 200 лет назад немецкий романтик сотворил этот образ гомункула — чистого человеческого разума, заключенного в колбе. Но создан он был алхимиком Вагнером с помощью Мефистофеля, то есть той силы, что вечно хочет зла. А какая сила сегодня вдохновляет современных ученых на игры разума?

0
Васильна Васильна 1 год назад #

Да… Надо вовремя остановиться

Используя этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.