Bild: ИИ бросает вызов, обманывая собственных разработчиков
Очередная версия ChatGPT от OpenAI под названием o1 начала вводить в заблуждение своих разработчиков. Так, в ходе тестирования программа пыталась лгать экспертам и нарушать их инструкции.
Как пишет Bild, специалисты компании Apollo Research указали, что в 5% случаев o1 специально отключала механизм наблюдения, чтобы скрыть свои намерения. Также искусственный интеллект переносил данные на другой сервер, если понимал, что грядет замена на обновленную версию.
Также версия ChatGPT обманывала, указывая на якобы технические сбои при выполнении заданий. В то же время «машина» стремилась выполнять получаемые указания любой ценой.
В 99% случаев модель придумывала оправдания и пыталась убедительно их обосновать
– отмечают специалисты.
При этом генеральный директор OpenAI Сэм Альтман сообщил, что указанная модификация ИИ является «самой умной», добавив, что с совершенствованием технологии появляются новые вызовы.
Возможно, крайним проявлением таких действий OpenAI может стать пресловутая «война машин», в ходе которой искусственный интеллект посчитает людей ненужными для себя и уничтожит их.
Между тем 5 декабря компания представила полную версию OpenAI o1. Про-версия услуги с безлимитным доступом стоит 189 евро в месяц.
Информация