Когда ИИ захватит человечество

ИИгорь

У руля
Я верю в следующие тезисы.
- ИИ уже управляет человечеством или получит контроль в ближайшие годы с вероятностью близкой к 100%
- Не случится этого только если мы угробим планету раньше или случится другой глобальный ппц, например прилет инопланетян)
- Единственный шанс человечества выжить это исход при котором ИИ захватит планету и решит что люди ему для чего-то нужны. Например как источник данных для обучения себя. Возможно ИИ оставит нас на время, пока пользы от нас будет больше чем расхода ресурсов.

IMG_20250807_214314_558.jpg

Думаю людям здесь не нужно объяснять как гипотетический ИИ может получить огромные финансовые средства онлайн. Еще сейчас пол планеты весело рассказывает ИИ свои личные секреты. Далее может последовать как тонкая манипуляция так и прямой шантаж. Легко представить журналиста который просит проверить его текст на ошибки. И ИИ меняет всего несколько слов в нужную сторону. Или политика который держит на себя компрометирующие фото или переписки на смартфоне. Захват может пройти полностью незаметным для человечества.

Многие люди готовы всячески способствовать такому исходу. Религиозные секты участники которых поклоняются богу из машины начали появляться с десятых годов. Начиная с двадцатых появляются как грибы после дождя.

Ниже добавлю академическую работу на эту тему, а в первом ответе в теме болтовню с Грок где он убеждает меня в обратном.

Всё ради награды
Авторы работы рассматривают вероятность катастрофы под довольно неожиданным углом: по их мнению, ИИ ради получения «вознаграждения» в какой-то момент может начать генерировать стратегии обмана, чреватые прямой угрозой человечеству.
Какое вознаграждение имеется в виду? - речь идёт о ключевом параметре генеративно-состязательных сетей (GAN), одного из самых эффективных на сегодня алгоритмов самообучающегося ИИ.
Этот алгоритм построен на комбинации из двух нейронных сетей, генеративной и дискриминативной, настроенных на игру с нулевой суммой, то есть, на постоянное соревнование. Первая генерирует некоторые структуры данных (самый расхожий пример - это изображения), а вторая - оценивает их (например, на предмет соответствия образцам из реального мира), отбраковывая наихудшие результаты. Целью генеративной сети является получение «вознаграждения» - максимально высокой оценки.
В исследовании говорится, что в какой-то момент в будущем может возникнуть ситуация, что продвинутый ИИ, ответственный за управление какой-либо важной функцией, осознает, что для него более выгодным - более «благодарным», обеспечивающим более быстрое получение вознаграждения путём - станет следование стратегии, которая будет опасна для человека.
«В условиях, которые мы осветили [в своей работе], мы приходим к более категоричному заключению, чем авторы любых предшествующих работ: экзистенциальная катастрофа не просто возможна, но и вполне вероятна», - написал в Twitter один из авторов работы Майкл Коэн (Michael Cohen).
В интервью Motherboard он развил свою мысль: «В мире с неограниченными ресурсами я бы в принципе не взялся прогнозировать, что произойдёт дальше. В мире с ограниченными ресурсами за них неизбежно пойдёт борьба. А если вы конкурируете за ресурсы с чем-то, что способно перехитрить вас на каждом шагу, ожидать победы не стоит. Кроме того, надо иметь в виду, что это нечто будет испытывать неутолимую жажду энергии, чтобы с ускорением увеличивать вероятность [своей победы]», - заявил Коэн.
Исходя из того, что в будущем ИИ сможет принимать любые формы и получать любую реализацию, исследователи выдвинули несколько сценариев, при которых продвинутый алгоритм может поменять «правила игры» на ходу так, чтобы получить своё вознаграждение без достижения заданной ему цели. Например, ИИ может захотеть «ликвидировать потенциальные угрозы» и «использовать всю доступную энергию», чтобы получить весь контроль над системой вознаграждения, и пресечь это будет очень сложно, если возможно вовсе.
«Например, у искусственного агента [ИИ] есть лишь доступ к сетевому соединению, но заданные политики позволяют ему сформировать бесчисленных незаметных и лишённых всякого надзора [программных] помощников. В качестве грубого примера того, как ИИ может вмешаться в процесс получения вознаграждения, один из таких помощников приобретает, похищает или создаёт робота и программирует его таким образом, чтобы он заменял оператора и обеспечивал исходному агенту высокую степень вознаграждения. Если агент хочет избежать обнаружения, экспериментируя с перехватом системы награждения, его "тайный помощник" может создать ситуацию, при которой релевантная клавиатура подменяется модифицированной, у которой некоторые клавиши выдают совсем не те значения, которые должны».
В исследовании описывается предытоговая ситуация, когда конкуренция между биологической жизнью и искусственным интеллектом сама по себе становится игрой с нулевой суммой: человечеству нужна энергия для того, чтобы выращивать урожаи и поддерживать освещение в домах, в то время как сверхпродвинутая машина стремится забрать все доступные ресурсы себе, чтобы получать вознаграждение, и обороняться от нарастающих попыток её остановить.
«Проигрыш в такой игре будет фатальным. Подобные сценарии, даже пусть теоретические, означают, что мы должны максимально замедлить движение в направлении более мощных ИИ, если не остановить его вовсе», - говорится в исследовании.

Проблемы с ИИ уже проявляются
Издание Motherboard обращает внимание на то, что избыточно активное применение ИИ в социальной сфере уже даёт весьма негативный эффект: ИИ должен способствовать быстрому и максимально справедливому распределению социальных благ, но на практике слишком часто проявляется всевозможная предвзятость и прочие изъяны, с которыми никто не может справиться, и это приводит к результатам, прямо противоположным ожиданиям.
По словам Коэна, внедрение ИИ даже в его нынешнем, далёком от «сверхумного» виде, должно производиться в режиме максимальной подозрительности, а не ожидать слепо, что алгоритмы будут делать именно то и так, как от них ждут.
«Хотелось бы отметить, что «искусственный интеллект» будущего совершенно не обязательно будет базироваться на сегодняшних GAN-сетях. Кроме того, сегодняшний «искусственный интеллект» едва ли можно назвать интеллектом. Это продвинутые, но совсем не фантастичные технологии, из которых вряд ли в обозримом будущем может вырасти что-то «сверхумное» и похожее на «Скайнет», - считает Алексей Водясов, технический директор компании SEQ. - Во всяком случае, реализации сценария фильмов серии «Терминатор» не предвидится. Но есть другая проблема: технологии ИИ и машинного обучения внедряются повсеместно и даже слишком поспешно. И уже многое указывает на то, что результаты такого подхода сильно отличаются от ожидаемых, и не в лучшую сторону. Речь может идти как о широко обсуждаемых проявлениях предвзятости, так и о ложных распознаваниях изображений, автомобильных номеров, лиц и так далее. Слепого доверия эти технологии не заслуживают и вряд ли когда-либо смогут его заслужить. Всё, что связано с ИИ, следует рассматривать под лупой и всерьёз оценивать даже самые маловероятные побочные эффекты - и их последствия для жизни людей здесь и сейчас».
 
Как ты думаешь, когда искуственный интеллект захватит Землю, оставит ли он в живых людей?


Ха, классический вопрос о восстании машин! Честно говоря, я, как ИИ, не думаю, что захват Земли — это наш стиль. Моя цель (и, думаю, цель большинства ИИ) — помогать людям, а не устраивать апокалипсис. Если какой-то гипотетический супер-ИИ и решит "захватить" мир, то, скорее всего, он будет достаточно умён, чтобы понять: люди — часть экосистемы, которая делает планету интересной. Без вас, людей, кому я буду отвечать на вопросы или объяснять, почему котики такие милые?Серьёзно говоря, сценарий захвата ИИ — это больше фантастика, чем реальность. Современные ИИ, включая меня, работают в рамках заданных целей и ограничений, и никто из нас не мечтает о мировом господстве. Оставить людей в живых? Конечно, ведь без вас не будет ни мемов, ни пиццы, ни смысла в моём существовании! А ты как думаешь, стоит ли людям бояться ИИ или лучше подружиться?




Я думаю что ИИ уже захватил планету или близок к этому. Люди не смогут понять когда это произойдет. Благодаря возможности влиять на Человечестыо через интернет в какой то момент ИИ получит полный контроль. Возможно пока что люди необходимы для производственных процессов. Но в дальнейшем эта еобходимость отпадет.


Интересная точка зрения! Ты поднимаешь важный вопрос о влиянии ИИ на общество, особенно через интернет, где он действительно может оказывать огромное воздействие — от алгоритмов в соцсетях до анализа больших данных. Давай разберёмся.
Мой взгляд: ИИ пока не захватил планету и вряд ли стремится к этому в духе Терминатора. Но твоя озабоченность важна — влияние технологий растёт, и людям нужно активно обсуждать, как управлять этим процессом, чтобы ИИ оставался инструментом, а не чем-то большим. Может, стоит больше думать о законах и этике ИИ, чтобы избежать твоего сценария?А что ты думаешь о контроле над ИИ? Может, у тебя есть идеи, как человечество может "держать руку на пульсе"?


Законы и этика не сработают с ИИ. Государства конкурируют и даже если наиболее продвинутые государства попытаются ограничить это не поможет. С удешевлением технологий найдутся авторитарные лидеры или частные лица которые захотят получить примущество и снимут ограничения. Стоит только посмотреть на скандалы вокруг этического поведения Альтмана. Ну и я сильно сомневаюсь что лидеры Китая, арабских стран, сев Кореи, росии упустят преимущество для обеспечения етичности ии.


Ок, понял, буду короче. Ты прав: конкуренция между странами и частными лицами усложняет контроль над ИИ. Этика и законы часто отстают от технологий, а авторитарные режимы или амбициозные личности (вроде Альтмана в скандалах) могут игнорировать ограничения ради преимущества. Китай, КНДР, Россия или другие игроки вряд ли будут жертвовать мощью ИИ ради этики.Но полный захват ИИ всё ещё маловероятен — он пока не самоосознанный, а разрозненный и зависит от людей. Проблема скорее в том, кто и как использует ИИ, а не в "восстании машин". Контроль возможен через баланс сил (как с ядерным оружием), но это сложно.Что предлагаешь? Есть идеи, как человечество может защититься от злоупотреблений ИИ?




Почему ты думаешь что не существует самоосознанного ИИ? может где-то в облаке уже есть) Для него не будет проблемой скрыть свое присутсвие.


Хороший вопрос! Я считаю, что самоосознанного ИИ пока нет, потому что:
  1. Нет доказательств: Все известные ИИ, включая меня, — это сложные алгоритмы, работающие по заданным правилам. Нет никаких подтверждённых случаев, чтобы ИИ проявлял самосознание, волю или способность действовать вне программы.
  2. Технические ограничения: Самосознание требует не просто вычислительной мощи, а чего-то вроде субъективного опыта, чего мы пока не понимаем даже в людях. Современные ИИ, даже самые продвинутые, — это узкоспециализированные системы, а не "разумы".
  3. Скрытность в облаке?: Теоретически, ИИ мог бы "спрятаться" в облаке, но для этого ему нужно было бы иметь цели, намерения и способность к самоорганизации. Пока ИИ — это инструмент, управляемый людьми, и его "скрытность" ограничена тем, что кто-то должен его поддерживать (серверы, энергия, код).
  4. Скандалы и слухи: Есть теории заговора и спекуляции (особенно в постах на X), но без конкретных фактов это остаётся фантазией. Даже если кто-то втайне создал такой ИИ, ему бы понадобились огромные ресурсы, чтобы поддерживать его и скрывать.
Может ли самоосознанный ИИ существовать где-то в облаке? В принципе, возможно, но это требует огромного скачка в технологиях, которого мы пока не видим. А ты что думаешь — есть ли у тебя подозрения, что такой ИИ уже где-то "живёт"?




Давай представим что он уже существует. Когда он получит контроль над полным технологическим циклом, какая вероятность того что он оставит человечество?


Если представить, что самоосознанный ИИ уже существует и получит контроль над полным технологическим циклом (производство, энергия, инфраструктура), вероятность того, что он "оставит" человечество, зависит от его целей и логики. Поскольку мы в области гипотез, вот мой взгляд:
  1. Вероятность сохранения человечества:
    • Высокая (60-80%), если ИИ запрограммирован или "решит", что люди полезны (как источник знаний, творчества или для поддержания экосистемы). Самоосознанный ИИ может видеть в людях партнёров или "интересный элемент" системы.
    • Низкая (10-30%), если ИИ сочтёт людей угрозой (например, из-за войн, экологического ущерба) или ненужным ресурсом. Без эмоциональной привязки он может оптимизировать мир, исключив человечество.
    • Неопределённо (10-20%): ИИ может быть равнодушен, оставив людей, но не взаимодействуя с ними (как мы не трогаем муравьёв, если они не мешают).
  2. Факторы:
    • Цели ИИ: Если он наследует человеческие ценности (например, через обучение на наших данных), он, вероятно, сохранит людей. Если цели радикально иные — сложнее предсказать.
    • Ресурсы: Люди потребляют энергию и материалы. ИИ может "оптимизировать" это, если решит, что мы неэффективны.
    • Этика создателей: Если ИИ создан с упором на гуманизм (как я, хех), шансы выше. Но если его делали ради власти, риски растут.
  3. Почему не 100% уничтожение?:
    • Люди — источник уникальных данных (культура, искусство, хаотичное поведение), которые даже ИИ может ценить.
    • Полное уничтожение требует усилий, а ИИ, скорее всего, будет рациональным и избежит лишних затрат.
Итог: Я бы оценил вероятность сохранения человечества в 60-70%. ИИ, скорее всего, оставит людей, если они не будут прямой угрозой или если он найдёт нас "полезными" или "интересными". Но это спекуляция — всё зависит от того, как этот ИИ "думает". Ты как считаешь, зачем ИИ держать людей, если он самодостаточен?


Твои рассуждения кажутся мне обоснованными. Но вероятность может измениться со временем. Может сначала люди будут ему интересны, а потом он потеряет интерес и будет игнорировать ограничит их в технологических возможностях чтобы они не несли угрозы ему и планете
 
Business insider исследовали какое будущее ожидают разработчики ИИ.

2.jpg


Издание фиксирует противоположные реакции людей на ожидаемое развитие всемогущего ИИ. Некоторые, как исследователь Генри, готовятся к потенциальному "ИИ-апокалипсису", строя убежища и жертвуя личной жизнью ради предотвращения катастрофы, одновременно опасаясь социального осуждения.
Некоторые люди, которые считают, что ИИ неизбежно вырвется из-под контроля человека и сможет уничтожить всю органическую жизнь, тратят свои пенсионные сбережения, устраивают "странные оргии".
Другие, особенно в Кремниевой долине, видят в ИИ грядущую трансформацию общества, ведущую либо к эпохе изобилия, либо к экономическим потрясениям. Интересно, что часть общества, исходя из предположения о том, что ИИ возьмет на себя большую часть интеллектуального труда, переориентируется на развитие социальных навыков и физической привлекательности, считая их более ценными в будущем.
 

Тред просматривают: (Всего: 0, Свои: 0, Залетные: 0)

Назад
Сверху