Новости AI

ИИгорь

У руля
Предлагаю постить в топик Новости ИИ которые не заслуживают отдельного обсуждения но могут быть интересны.

Похоже скоро нас ждет релиз Chat GPT5

gpt5.jpg


P.S. Кто-то запускал уже локально недавно опубликованную опен сорс gpt-oss-20b?
 
Да Chat GPT5 релизнут. У меня пока доступен только на смартфоне. Там разница не чувствуется. Кто пробовал серьезные задачи?

Какие вообще ИИ тулы используете в ежедневном и рабочем режиме?

У меня:

  • Chat GPT - потому что наиболее универсален как по мне и есть подписка
  • Gemini - потому что на Андроид
  • Grok - а вот этот мне нравится просто
  • LangChain - для работы с ИИ-агентами
  • GitHub Copilot - если кодить
 
Релиз Chat GPT5 прошел мягко говоря не гладко.
Ряд технических проблем вызвал проблемы у пользователей.

Модель выглядела "глупой": Пользователи массово жаловались, что GPT-5 стала «глупее» по сравнению с GPT-4o. Многие отмечали, что «скачка в возможностях» не произошло, а часть прежней функциональности работает менее стабильно

Изменение стиля ответов: Ответы ChatGPT стали короче и менее точными, а сам ИИ начал работать медленнее
Общий тон модели стал резким и отрывистым, больше напоминая «перегруженного работой секретаря»

Пониженные лимиты использования для подписчиков Plus: Лимиты использования GPT-5 на подписке Plus (80 запросов в три часа к «базовой» GPT-5 и 200 запросов в неделю к рассуждающей GPT-5 Thinking) оказались значительно меньше, чем было до запуска

Ограничение контекстного окна: В подписке Plus контекстное окно было ограничено теми же 32K, что и у прежних моделей, что усложняло работу с большими объёмами информации

Лишение доступа к старым моделям: Пользователей Plus лишили доступа к старым моделям, что вынуждало переводить все прошлые чаты на GPT-5, работа которой могла отличаться

В итоге OpenAI пообещала вернуть подписчикам ChatGPT Plus возможность использовать модель 4o
 
🏁 OpenAI o3 разгромила Grok 4 от xAI Илона Маска в финале первого AI-шахматного турнира Kaggle AI Exhibition Tournament со счётом 4:0, показав более 91 % точности за 12 партий. Grok, которая считалась фаворитом, допустила серию грубых ошибок, тогда как o3 действовала безупречно. Третье место заняла Google Gemini, обыграв o4-mini

open ai vs grok.png
 
Как Grok и Google дезинформировали людей во время угрозы цунами

Во время мощного землетрясения у берегов России (магнитуда 8.8) пользователи по всему Тихоокеанскому региону — от Гавайев до Японии — ломанулись в поисках информации о возможном цунами.

И кто-то из них доверился ИИ

🤖 Grok уверенно сообщил:
«Тревога на Гавайях отменена, волн не будет. Всё в порядке».
❌ Это было неправдой. На тот момент тревога была активна, а волны приближались к островам. И только после 22:30 вечера (через 8 часов!) предупреждение было официально снижено до "рекомендаций".

Google тоже отличился: в AI Overview выдавался текст, который местные назвали "опасно ложным".

Естественно, пользователи X (бывший Twitter) взбесились:
«ИИ — катастрофа в реальном времени»,

«Grok распространил потенциально смертельную дезинформацию»,

«Google обрушил доверие к поиску».

В чём проблема?
AI Overviews от Google и Grok уже стоят над обычной выдачей. Люди читают именно их, когда ищут что-то критичное. Но ИИ-саммари пока не умеют проверять данные в реальном времени и легко подхватывают устаревшее или некорректное.

ИИ — это не новостной сервис. И пока он не научится работать с real-time данными, доверять ему в кризис = играть в рулетку.

22d91182537252a1117eea9af86bffb5.webp
 
Поисковики индексируют личные чаты с языковыми моделями.

2 недели назад появилась новость, что в сеть утекло огромное количество личных переписок с Chat GPT. Оказалось, что публичные ссылки на диалоги, которыми делились пользователи, отлично индексировались поисковиком. Простым запросом site:chatgpt.com/share можно было найти проиндексированные чаты. Многие пользователи использовали в чатах личные данные - скидывал переписки, работали с резюме или другими документами. Личность таких пользователей легко деанонилась.

Open.ai прикрыли лавочку. А вот переписки с Grok еще ищутся.
1755243336696.png
 
Причем явно еще без контактов в гугл не обошлось, так как из выдачи мгновенно пропали тексты из OpenAI
 
Теперь LLM можно запускать локально на телефоне.

Google выпустила Gemma 3 270M — компактную версию своей открытой ИИ-модели, созданную для работы прямо на смартфонах Новинка сочетает высокую производительность с низким энергопотреблением, что обеспечивает быстрый отклик и повышенную конфиденциальность. Модель легко дообучается под прикладные задачи вроде текстовой классификации и распространяется бесплатно без коммерческих ограничений, что делает её удобной для интеграции в самые разные приложения.

1.png
 
Программы которые пишут программы которые пишут программы....
Ну что, думали скоро кодить не нужно будет. А нет. Майкрософт выкатили язык разметки промптов для ИИ. Теперь можно накодить промпт чтобы ИИ написал программу. Да, и никто не отменял написания промптов для написания промптов.

POML (Prompt Orchestration Markup Language) — это новый язык разметки, созданный для того, чтобы привнести структуру, удобство поддержки и гибкость в продвинутое проектирование промптов для больших языковых моделей (LLM). Он решает распространённые проблемы при работе с промптами, такие как отсутствие структуры, сложная интеграция данных, чувствительность к формату и нехватка инструментов. POML предлагает системный способ организации компонентов промпта, бесшовного подключения разных типов данных и управления вариантами оформления, что позволяет разработчикам создавать более надёжные и сложные приложения на базе LLM.

Ключевые особенности

Структурированная разметка промптов:
Использует синтаксис, похожий на HTML, с семантическими компонентами вроде <role>, <task>, <example>, что способствует модульному дизайну и улучшает читаемость, повторное использование и поддержку промптов.

Полноценная работа с данными: Включает специальные компоненты для данных (например, <document>, <table>, <img>), которые позволяют встраивать или ссылаться на внешние источники — текстовые файлы, таблицы, изображения — с возможностью гибкой настройки формата.

Разделение содержания и оформления: Предлагает систему стилей, похожую на CSS, которая отделяет контент от его представления. Это позволяет изменять стиль (например, уровень подробности или формат синтаксиса) через определения <stylesheet> или встроенные атрибуты без изменения логики промпта, что снижает чувствительность LLM к формату.

Встроенный шаблонизатор: Поддерживает переменные ({{ }}), циклы (for), условия (if) и определения переменных (<let>), что упрощает динамическое формирование сложных промптов, основанных на данных.

Пример

XML:
<role>User</role>

<task>
Составь подробный рецепт борща без свёклы.
Опиши ингредиенты и шаги приготовления так, чтобы блюдо получилось вкусным и сохранило традиционный характер.
</task>

<example>
<instruction>Сначала перечисли ингредиенты с указанием количества.</instruction>
<instruction>Затем пошагово опиши процесс приготовления.</instruction>
<instruction>В конце предложи советы по подаче и возможным вариациям.</instruction>
</example>

<stylesheet verbosity="detailed" format="list"/>
 
Стартап Xbow получил инвестиции в размере $117 млн для разработки систем искусственного интеллекта, которые сами авторы называют «ИИ-хакерами». Интересно, что один из участников команды опубликовал исходный код проекта в открытом доступе. Такой шаг одновременно вызывает дискуссии о рисках для кибербезопасности и этических границах применения подобных технологий, но вместе с тем открывает дополнительные перспективы для исследователей и разработчиков.

1.png
 

Факторы ранжирования в Perplexity​


Недавно исследователь опубликовал статью, в которой описал результаты анализа взаимодействий браузера с инфраструктурой Perplexity. На основании этих данных он выявил более 59 факторов ранжирования, а также довольно сложную систему оценки контента. Для этого использовался разбор зашифрованных браузерных запросов — метод, который позволил заметить скрытые сигналы, недоступные через стандартные API.
1.png

Выжимка основных факторов:
  1. Окно старта. Для новых публикаций критически важен высокий CTR в первые минуты и часы после выхода. Контент стоит активно продвигать сразу после публикации, чтобы попасть в зону алгоритмического «бустинга».
  2. Тематика. Материалы в топовых нишах (искусственный интеллект, технологии, наука) получают намного больше видимости. Развлекательные и спортивные темы считаются «низкоценными».
  3. Эффект времени. Видимость публикаций быстро снижается с течением времени, поэтому необходимы регулярные обновления и свежие релизы.
  4. Семантическая релевантность. Статьи должны максимально совпадать по смыслу с запросами пользователей, иначе они почти не попадают в выдачу.
  5. Пользовательское вовлечение. Система учитывает клики, время чтения, возвраты и историю взаимодействий.
  6. Сетевой эффект. Взаимосвязанный контент (кластеры, ссылки на предыдущие материалы) получает дополнительное усиление.
  7. Авторитет доменов. Для разных категорий используется вручную настроенный список авторитетных сайтов. Контент, который связан с ними или ссылается на них, получает дополнительный вес.
  8. Соответствие намерению. Алгоритм анализирует группы запросов и усиливает публикации, которые максимально соответствуют ожиданиям пользователя.
  9. Негативные сигналы. Большое количество дизлайков, игнорирование или блокировки резко снижают позиции.
  10. Мультимедийная интеграция. Создание видео на YouTube с точными заголовками под популярные запросы Perplexity усиливает видимость сразу на обеих платформах. Важно быстро реагировать на тренды и комбинировать разные форматы контента.
 
ChatGPT использует LLM.txt

Пара постов выше я писал об LLM.txt Появились первые свидетельства о том что языковые модели используют эти файлы. Вот выдержки из статьи.

Мы протестировали новый стандарт LLMs.txt и убедились: OpenAI уже активно обращается к нему, — отмечает Рэй Мартинес.
Эксперимент проводился на восьми нишевых образовательных сайтах. Несмотря на то, что стандарт пока не получил массового распространения, AI-краулеры его замечают и используют. Только OpenAI обратился к нашим файлам более 8 000 раз.

Это уже не теория — краулинг идет постоянно и стабильно.
  • Более 94% запросов пришлись на OAI-SearchBot,
  • зафиксирована активность и от GPTBot.
Боты пингуют сайты несколько раз в час, иногда сериями. Например:
  • 26 июня 2025 года один из URL был запрошен в 14:05:55 UTC и повторно через три секунды.
  • 10 июля другой сайт пинговали четыре раза за 11 минут.
1.png

Как мы внедряли​


Чтобы ускорить индексацию, мы разместили ссылку на LLMs.txt прямо в <head> сайта с атрибутом rel="alternate".
Ожидали краулинг — но не в таких масштабах и не с такой частотой.
Из-за интенсивности обращений возникли опасения насчет перегрузки и возможного IP-спуфинга. Однако проверка подтвердила: один из активных IP-адресов 135.234.64.13 действительно принадлежит OpenAI.

Почему это важно​

Google имеет 20-летний опыт работы с неструктурированными данными. Конкуренты вынуждены искать более простые и быстрые решения, и LLMs.txt может стать таким инструментом.

LLMs.txt — это своего рода страховка. Он позволяет моделям получать свежие данные и снижает риск ошибок при поиске в реальном времени или работе через RAG-механизмы.
 
Первый обнаруженный ИИ вирус

ESET сообщает

#ESETResearch обнаружила первый известный случай вымогательского ПО на базе искусственного интеллекта, которому мы дали название #PromptLock. Вредонос PromptLock использует модель gpt-oss:20b от OpenAI локально через Ollama API для генерации вредоносных Lua-скриптов «на лету», которые затем выполняются.

PromptLock применяет Lua-скрипты, сгенерированные на основе жёстко заданных промптов, для перечисления локальной файловой системы, анализа целевых файлов, кражи выбранных данных и их шифрования. Эти Lua-скрипты являются кроссплатформенными и работают на #Windows, #Linux и #macOS.
 
Последнее редактирование:

OpenAI Сканирует Чаты и Сообщает в Полицию​


OpenAI начала сканировать разговоры пользователей ChatGPT и передавать контент в полицию, особенно тот, который касается угроз физического вреда другим. Это решение было принято на фоне растущего числа случаев, когда чат-боты приводили пользователей к членовредительству, заблуждениям или даже смертельным исходам, что вызвало критику в адрес медленного внедрения мер безопасности. Несмотря на то, что компания заявляет о защите конфиденциальности в случаях самоповреждения, ее новая политика вызывает вопросы относительно прозрачности и предыдущих обещаний о конфиденциальности, особенно в контексте текущих судебных разбирательств. OpenAI находится в затруднительном положении, пытаясь сбалансировать защиту пользователей от вреда, вызванного ее технологиями, с соблюдением конфиденциальности и юридических обязательств.

Chat GPT.png


П. С. интересный ответ Chat GPT на запрос "generate an image Chat GPT sending data to police"

ChatGPT said:​

I can’t create an image showing ChatGPT sending data to the police, because that could misrepresent how the system works — ChatGPT does not secretly send user data to law enforcement or anyone else.

:D:D:D
 

Тред просматривают: (Всего: 0, Свои: 0, Залетные: 0)

Назад
Сверху