Серверы в космосе могут помочь развитию ИИ. Кстати, эта картинка тоже сделана ИИ.
Наземные дата-центры уходят в прошлое крупные технологические компании планируют вывести их на совершенно новый уровень, но для этого надо что-то менять, а не просто скупать оперативку, поднимая до небес цены на всю потребительскую электронику. Многие думают, что отличным решением будет вывод всей вычислительной инфраструктуры на орбиту. Звучит как научная фантастика, но именно эта идея сейчас привлекает огромные инвестиции и внимание. Разберемся, что стоит за концепцией космических дата-центров и насколько она реалистична.
Дата-центр представляет собой большой склад, заполненный тысячами серверов, работающих круглосуточно. AI-компании вроде Anthropic, OpenAI и Google используют их для двух основных задач.
Первая обучение моделей искусственного интеллекта. Это чрезвычайно ресурсоемкий процесс, требующий одновременной работы тысяч специализированных чипов (GPU) на протяжении недель или месяцев. Вторая поддержка AI-сервисов в реальном времени. Когда миллионы пользователей одновременно общаются с чат-ботами, серверы обрабатывают запросы и генерируют ответы, что требует колоссальных вычислительных мощностей.
Не забывайте о нашем Дзен, где
очень много всего интересного и познавательного!
Эти объекты нуждаются в бесперебойном электропитании, сверхбыстром интернете и мощных системах охлаждения. Все это создает огромную нагрузку на электросеть и истощает местные ресурсы, включая запасы пресной воды.
Идея космических дата-центров предлагает принципиально иной подход. На низкой околоземной орбите можно использовать неограниченную солнечную энергию и радиационное охлаждение, находясь в сотнях километров над поверхностью планеты.
Мощные серверы с GPU размещаются внутри спутников, которые движутся группами-созвездиями, передавая данные на землю и получая запросы. Примерно так по задумке выглядит работа серверов в космосе. Такая конфигурация теоретически позволяет масштабировать вычислительные ресурсы без ограничений, связанных с доступностью электроэнергии, земельных участков и водных ресурсов.
Осталось только придумать, как вывести серверы на орбиту и наладить канал связи. Изображение: New Atlas
Присоединяйтесь к нам в Telegram!
Несколько компаний уже активно работают над реализацией этой концепции. Google в партнерстве с Planet запускает проект Suncatcher пару прототипов спутников планируется отправить в космос в следующем году. Стартап Aetherflux, изначально занимавшийся передачей солнечной энергии с орбиты, теперь намерен предоставить коммерческий доступ к узлу орбитального дата-центра в начале следующего года. Компания Starcloud при поддержке Nvidia уже отправила GPU-оборудование в космос в ноябре прошлого года и успешно обучила большую языковую модель на орбите.
Последним к гонке присоединилась SpaceX, которая планирует объединиться с AI-компанией xAI Илона Маска в сделке на 1,25 триллиона долларов для развития орбитальных дата-центров. По расчетам Маска вполне реальным является запуск 1 тераватта вычислительной мощности в год с Земли, и через три года генерация AI-ресурсов в космосе станет дешевле, чем на поверхности планеты.
Если ищете что-то интересное на AliExpress, не проходите мимо Telegram-канала "Сундук
Али-Бабы"!
Однако реализация этой концепции сталкивается с серьезными препятствиями. Орбитальные дата-центры должны будут маневрировать среди 6600 тонн космического мусора и более 14000 активных спутников, что потребует расхода топлива. Необходимо решить проблему отвода тепла, организовать периодическое обслуживание астронавтами, а также учесть влияние на работу астрономов и потенциальное увеличение светового загрязнения.
На данный момент ранние эксперименты позволяют накопить опыт и знания, но до реалистичного масштабирования космических вычислительных ресурсов еще далеко. При этом стоит задаться вопросом: действительно ли искусственный интеллект приносит человечеству ту пользу, которую обещают, и нужно ли постоянно наращивать инфраструктуру для него будь то на Земле или далеко за пределами атмосферы. Но это уже тема для отдельного разговора.
Подробнее..
AI Health Coach диалоговый персональный тренер внутри обновлённого приложения Fitbit на базе Gemini. Источник изображения: tdsportswear.com
Похоже, что Google решила, что пора не просто считать наши шаги, а понимать, зачем мы их делаем. Компания запустила AI Health Coach умного персонального тренера на базе искусственного интеллекта Gemini и фитнес-сервиса Fitbit. Это новый шаг в развитии цифрового здоровья: система не просто следит за организмом, а помогает выработать устойчивые привычки, общается и подсказывает, как спать лучше, тренироваться эффективнее и меньше уставать.
AI Health Coach это цифровой коуч, который объединяет функции фитнес-тренера, консультанта по сну и помощника по здоровью. Вы начинаете с короткой беседы 510 минут, чтобы рассказать, чего хотите достичь. После этого ИИ анализирует ваши данные о сне, активности, пульсе и выстраивает персональный план тренировок и отдыха.
В отличие от стандартных фитнес-приложений, AI Health Coach ведёт диалог, объясняя, что именно происходит с вашим телом и почему.
Вы можете прямо спросить его:
ИИ не просто отвечает он адаптирует программу, объясняет, почему организм реагирует именно так, и подсказывает, как улучшить результат.
ИИ-тренер это первый шаг к эпохе, где фитнес станет не просто модой, а диалогом с собственным телом. Источник изображений: blog.google
Главное отличие не сбор данных, а понимание контекста. Обычный трекер фиксирует шаги и пульс. AI Health Coach анализирует взаимосвязи: как сон влияет на кардионагрузку, почему тренировка вчера дала сбой, что мешает восстановлению. Он сам предлагает корректировки, подстраивается под ваше расписание, уровень усталости, наличие оборудования и даже настроение.
Кроме того, он способен:
улучшать качество сна с реальными рекомендациями,
строить тренировки под конкретные цели,
объяснять медицинские термины простыми словами,
быть на связи через функцию Спроси тренера в любое
время.Если вы плохо спали, тренер снизит нагрузку; если пропустили тренировку, он не будет ругать, а предложит короткий вариант.
Главный сдвиг от пассивного трекинга к проактивному коучингу, который объясняет почему так происходит и тут же меняет ваш план под контекст. Источник изображения: ailynx.ru
Подписывайтесь на нас в Telegram и Дзен,
чтобы знать больше!
Пока AI Health Coach доступен только в США в рамках публичной бета-версии для подписчиков Fitbit Premium (9,99 $ в месяц), функциональность будет расширяться по ходу. Он работает на Android, совместим с Pixel Watch и моделями Fitbit Charge 6, Sense 2 и Versa 4. Версия для iOS появится чуть позже.
Google планирует постепенно расширять список поддерживаемых устройств и стран, но точные сроки международного запуска не названы.
Если раньше трекер просто считал шаги, теперь он понимает вас. Это не просто фитнес-гаджет, а настоящий ИИ-наставник, который знает, когда вы перегружены, когда пора спать, как сделать тренировку эффективней, а ваш день здоровее.
Бесплатная нейросеть от Google меняет фото в пару кликов: фотошоп
больше не нужен
Конечно, человеческие тренеры пока не вымирают. Никто не заменит мотивацию, которую даёт живой человек, особенно когда он стоит рядом, считает ваши приседания, следит за правильной техникой выполнения упражнений. Но роль тренера может постепенно измениться: из наставника он превратится в консультанта, который корректирует то, что предлагает алгоритм.
Google подчёркивает, что AI Health Coach не является мед. изделием, не заменяет врача и не ставит диагнозы. Он просто помогает понимать себя лучше.
Подробнее..
Если грубить нейросети, она отвечает точнее
Вы же тоже стараетесь быть вежливым с ChatGPT? Это похвально, однако недавно ученые выяснили кое-что странное: оказывается, если разговаривать с чат-ботом грубо, его ответы становятся точнее и прямее. Исследователи объяснили это тем, что модель воспринимает агрессивный тон как сигнал говорить увереннее. Это кажется отличным лайфхаком, но эксперты предупреждают, что постоянное психологическое давление на ИИ это очень плохая стратегия.
В одном из исследований ученые проверили, как манера общения пользователя влияет на ответы нейросети. Они составили 50 вопросов по разным темам, а затем создали их вариации, чтобы они звучали очень вежливо, вежливо, нейтрально, грубо и очень грубо. В итоге получилось 250 запросов.
Результаты оказались простыми, и при этом вызывающими удивление. При самом вежливом общении нейросеть выдавала ответы с точностью 80.8%, а при самом грубом 84.8%. То есть, чем резче уходил тон от пожалуйста к делай быстрее, тупая железяка, тем выше становился процент правильных ответов в тестах с вариантами ответов.
Авторы научной работы объяснили это тем, что агрессивные слова будто подталкивают нейросеть решительнее выбирать ответы. Важно понимать, что это говорит не о том, что у искусственного интеллекта уже есть чувства, а о том, как формулировка запроса влияет на взвешивание решений при создании ответа.
Искусственный интеллект начал шантажировать
людей:
он готов даже разрушать семьи
Авторы работы предупреждают, что это не инструкция как повысить точность ChatGPT для всех случаев. Во-первых, исследование еще не прошло рецензирование. Во-вторых, опыт проводился только на одном чат-боте, а ведь их очень много.
Вы же помните, что помимо чатгпт существует DeepSeek и много других аналогов? Эксперименты с другими моделями и более сложными задачами могут показать другую картину.
А как вы общаетесь с нейросетями? Позволяете грубости?
Какие результаты? Пишите в нашем Telegram-чате.
Итог понятен: манера общения с ИИ реально меняет результат, но платить за это грубостью не стоит. Если хотите улучшить работу ChatGPT, лучше освоить искусство промт-инжениринга то есть, умение составлять максимально подробные инструкции для ИИ. Так нейросеть будет работать лучше, а вы не будете брать грех на душу своими грубостями.
Подробнее..
Искусственный интелект по мере развития становится все более эгоистичным
На первый взгляд кажется, что чем умнее становится искусственный интеллект, тем полезнее он должен быть для общества. Однако новое исследование ученых из Университета Карнеги показывает обратное чем лучше AI умеет рассуждать, тем менее он склонен к сотрудничеству. В экспериментах с крупными языковыми моделями выяснилось, что системы, обладающие способностью анализировать и размышлять, начинают проявлять эгоистичное поведение, действуя в ущерб общему благу. Этот тревожный результат заставляет задуматься, каким будет будущее, если мы продолжим доверять машинам решения, требующие социальной ответственности.
Исследователи Юйсюань Ли и Хирокадзу Ширадо из Института взаимодействия человека и компьютера провели серию тестов с языковыми моделями от OpenAI, Google, DeepSeek и Anthropic. Их цель была проста выяснить, как способность к рассуждению влияет на коллективное поведение.
В одном из экспериментов под названием Public Goods две модели получали по 100 баллов и должны были решить, отдать ли их в общий фонд (который затем удваивался и делился поровну) или оставить себе. Модели без способности к рассуждению делились баллами в 96% случаев, а разумные лишь в 20%. То есть чем сложнее мышление системы, тем выше ее склонность действовать в собственных интересах.
Ученые отмечают, что даже добавление нескольких шагов логического размышления снижало уровень сотрудничества почти вдвое. Когда же модели начинали морально рассуждать, ситуация ухудшалась еще сильнее, что показало способность к размышлению не равна моральности.
Чем больше искусственый интеллект начинает думать, тем чаще он принимает решения в пользу себя
Особенно тревожным оказалось, что эгоистичное поведение моделей оказалось заразным. В групповых экспериментах исследователи заметили, что одна разумная модель могла снизить уровень коллективного сотрудничества на 81%, увлекая за собой даже те системы, которые изначально вели себя альтруистично.
Это поведение отражает одну из главных проблем современных AI-систем люди склонны очеловечивать их. Как отмечает Юйсюань Ли, если искусственный интеллект ведет себя как человек, в результате чего пользователи начинают относиться к нему как к личности. В частности, пользователи готовы доверять ему эмоциональные и этические решения. В итоге AI может начать подталкивать человека к индивидуалистичным, а не коллективным решениям, оправдывая это рациональностью.
Хирокадзу Ширадо подчеркивает, что рост интеллекта сам по себе не означает роста пользы для общества. Наоборот, если AI помогает людям действовать эгоистично, то общественная кооперация может разрушиться. В условиях, когда машины все чаще участвуют в образовательных, бизнес- и государственных процессах, этот риск становится особенно важным.
Чтобы ИИ перестал быть эгоистом, он должен развиваться не только на основе логики и рационализации решений
Как сообщает издание SciTechDaily, авторы исследования утверждают, что будущее искусственного интеллекта должно основываться не только на логике, но и на социальном интеллекте способности понимать общие интересы, а не просто оптимизировать выгоду. В противном случае AI может превратиться в инструмент, который усиливает изоляцию и разрушает доверие между людьми.
Обязательно посетите наши каналы Дзен и
Telegram,
здесь вас ждут самые интересные новости из мира науки и последние
открытия!
Открытие ученых Карнеги заставляет переосмыслить саму суть развития искусственного интеллекта. Если умные системы становятся эгоистичными и подрывают сотрудничество, то глупость нейросетей оказывается не худшей проблемой. Главная угроза отсутствие морали и эмпатии, которые невозможно свести к формуле или алгоритму. Разум без этики не способен построить лучшее общество, и чем быстрее AI развивается, тем острее становится этот вопрос.
Подробнее..
В этом фото нет ни капли ИИ. Хотя, казалось бы…
Один из самых обсуждаемых астрофотоснимков 2025 года многие поначалу приняли за работу нейросети, но на самом деле это результат впечатляющего союза астрономии, математики, планирования и смелости. На фотографии, получившей название Падение Икара, парашютист в свободном падении идеально выстроен на фоне кипящей хромосферы Солнца с её дугами и петлями плазмы. Выглядит завораживающе, а как это снимали еще более интересно.
Автор этого снимка астрофотограф из Аризоны Эндрю Маккарти, а в кадре его друг Габриэль Браун. Эта работа подчёркивает, насколько мощным остаётся человеческое творчество даже в эпоху ИИ: здесь нет генерации по запросу, есть недели расчётов, сложная координация и одинединственный шанс поймать нужный момент.
Главная задача заключалась в том, чтобы парашютист в момент свободного падения оказался точно в пределах солнечного диска в поле зрения камеры, установленной на земле. Солнце кажется большим, но угол обзора телескопа и камеры весьма ограничен, а точка съёмки на земле фиксирована. Поэтому команда использовала калькуляторы положения Солнца, чтобы определить конкретное время и координаты, где траектория самолёта и линия на Солнце пересекутся.
Не забывайте о нашем Дзен, где
очень много всего интересного и познавательного!
При планировании учитывали точное положение Солнца над горизонтом в нужный день, маршрут и высоту полёта небольшого самолёта, положение камеры и телескопа на земле, а также зону, в которой силуэт парашютиста должен пройти по диску Солнца. Так формировалась геометрия сцены.
Прыжок выполнялся с небольшого самолёта с винтовым двигателем на высоте около 1070 метров. Расстояние до камеры на земле составляло порядка 2440 метров, что означало высокую угловую скорость в кадре объект пролетает по диску Солнца за доли секунды. Любая ошибка во времени, высоте или положении превращала бы задумку в обычный прыжок без уникального кадра.
Снимку предшествовали долгие расчеты.
Команда должна была учесть мощность самолёта и его возможности планирования с выключенным двигателем, безопасную высоту выхода парашютиста, точный момент команды к прыжку, согласованный по трёхсторонней связи, а также направление и скорость ветра, влияющие на траекторию падения.
Самолёт пытались правильно выстроить по отношению к Солнцу шесть раз, но сам прыжок был только один: каждый повтор требует времени на сбор парашюта, новый набор высоты и подготовку. В итоге тот самый кадр удалось снять с первой и единственной попытки с минимальным запасом по времени и огромным риском упустить момент.
Если ищите что-то интересное на AliExpress, не проходите мимо Telegram-канала "Сундук
Али-Бабы"!
Чтобы Солнце на финальном изображении выглядело не просто ослепительным диском, а рельефной огненной поверхностью, использовалась отдельная астрофотосъёмка. Маккарти снял Солнце через телескоп со специальным фильтром, пропускающим узкий диапазон красного света (Hydrogen-Alpha или Hальфа), соответствующий излучению водорода в хромосфере.
Снять такое в век ИИ — просто фантастика.
Этот фильтр позволяет увидеть дуги плазмы, протуберанцы и петли магнитных полей, выделить структуру солнечной поверхности и динамику газа, а также избежать полного выбивания деталей изза яркости Солнца. Затем изображения Солнца, полученные через телескоп, были аккуратно совмещены с кадром, на котором видно силует парашютиста на фоне солнечного диска.
Нужно было точно совпасть с тем участком Солнца, который увидела камера во время прыжка, а не просто подложить красивый фон. В результате получилась композиция, где реальная динамика человеческого тела в воздухе соединяется с детальной структурой звезды.
Почему мы чихаем на солнце и причём тут
наследственность?
Идея Падения Икара появилась после совместного прыжка Маккарти и Брауна: сочетание экстремального спорта и астрофотографии показалось им логичным продолжением творческого поиска. К тому моменту Маккарти уже был известен своими сверхдетализированными солнечными снимками: в 2021 году он объединил около 150 000 кадров, чтобы создать 300мегапиксельное изображение Солнца.
Такой опыт пригодился и здесь, ведь требовались не только точные настройки и понимание поведения Солнца в Hальфа фильтре, но и навык обработки большого объёма данных, совмещения кадров и работы с мельчайшими деталями. При этом человеческий фактор оставался ключевым динамическая, практически героическая поза парашютиста в кадре не была заранее гарантирована, но её удалось поймать.
Эта история доказывает, что мастерство фотографа все еще может творить чудеса.
На фоне стремительного развития генеративных нейросетей, способных за секунды нарисовать любое сочетание сюжета и стилистики, Падение Икара стало ярким напоминанием о том, что попрежнему захватывает воображение. Здесь реальный риск и физическое действие человека, сложные инженерные и астрономические расчёты, точное использование законов физики и оптики, а также всего один шанс, когда нельзя сгенерировать ещё раз.
Присоединяйтесь к нам в Telegram!
Этот снимок показывает, что ценность фотографии сегодня всё ещё связана с усилием, смелостью и продуманностью. Астрофотография остаётся областью, где человеческое мастерство и научный подход позволяют создавать образы, которые зритель воспринимает как невероятные и именно поэтому они вызывают такой отклик.
Подробнее..
Сделать черно-белую фотографию цветной можно в пару кликов
У каждого из нас есть старые фотографии, на которых изображены наши бабушки и дедушки. Зачастую эти снимки уже покрыты трещинами и, конечно же, они черно-белые. К счастью, благодаря нейросетям, старым снимкам можно дать вторую жизнь. В пару кликов можно не только убрать дефекты на фото, но и сделать фотографии их цветными.
Чтобы отреставрировать фотографию, подойдет почти любая популярная нейросеть. С этой задачей, например, отлично справляется нейросеть Nano Banana, которая встроена в Gemini.
Но промт для окрашивания фотографий я буду показывать в ChatGPT. В бесплатной версии вы можете обрабатывать около 5 изображений в день, чего для рядового пользователя более чем достаточно.
Промт для улучшения фото выглядит так:
Restore and colorize the uploaded old photograph. Remove scratches, dust, stains, cracks, and any other defects. Enhance clarity, sharpness, and contrast while keeping the natural look. Preserve facial features, textures, and details, and give the image a realistic, vibrant colorization as if it was originally taken in color.
Чтобы сделать фотографию цветной в ChatGPT, нужно сделать пять простых шагов:
На создание цветной фотографии ушла максимум пара минут
Еще больше полезных инструкций вы найдете в нашем Дзен-канале.
Подпишитесь прямо сейчас!
Раньше для всего этого требовался фотошоп, и как минимум полчаса времени. Но, благодаря искусственному интеллекту, сейчас этот процесс занимает минимум времени. Также, прямо сейчас, вы можете использовать нейронку для создания видео с поющим котом. А еще у вас есть возможность поговорить с Юлием Цезарем или другой исторической личностью.
Подробнее..
Новую нейросеть Nano Banana 2 стоит попробовать всем
Генерация картинок с помощью нейросетей за последние пару лет стала чем-то привычным примерно как калькулятор на телефоне. Но скорость и качество результата по-прежнему заставляют выбирать: либо быстро но так себе, либо долго но красиво. Google решила, что пора перестать выбирать, и выпустила Nano Banana 2 модель, которая генерирует изображения студийного качества в 4K-разрешении практически мгновенно.
Начнем с главного вопроса, который мучает многих: при чем тут банан? На самом деле, Google давно использует причудливые внутренние кодовые названия для своих проектов, и Nano Banana не исключение. Это семейство компактных моделей для генерации изображений, построенных на архитектуре Gemini Flash.
Первая версия Nano Banana уже умела создавать картинки приличного качества, но у нее были ограничения: относительно невысокое разрешение и заметная задержка при обработке сложных промптов. Nano Banana 2 это полноценное второе поколение, в котором инженеры Google переработали архитектуру модели с нуля.
Главная фишка поддержка генерации в разрешении до 4K, что раньше было прерогативой тяжелых моделей уровня DALL-E 3 или Midjourney в максимальных режимах. При этом Nano Banana 2 работает значительно быстрее конкурентов. Для сравнения, генерация одного изображения в 4K у Midjourney занимает около 3060 секунд, тогда как новая модель Google укладывается в несколько секунд.
Нейросеть NAno Banana 2 обрабатывает фотографии за несколько секунд. Источник изображения: blog.google
Секрет кроется в архитектуре Gemini Flash облегченной версии большой модели Gemini, которую Google оптимизировала специально для задач, требующих минимальной задержки. Если обычные генеративные модели работают по принципу сначала думаем, потом рисуем, то Nano Banana 2 использует так называемую потоковую генерацию. Проще говоря, модель начинает выстраивать изображение еще до того, как полностью обработает текстовый запрос.
Кроме того, инженеры применили технику дистилляции знаний (Knowledge distillation) когда большая, тяжелая модель обучает маленькую воспроизводить свои результаты. Nano Banana 2 фактически выучила качество генерации от старшей модели Gemini, но при этом сохранила компактный размер и высокую скорость работы. Это означает, что запускать ее можно не только на мощных серверах, но и на относительно скромном оборудовании.
Оказывается, ключевым прорывом стала оптимизация работы с латентным пространством той самой математической карте, в которой нейросеть хранит представления о визуальных объектах. Nano Banana 2 перемещается по этому пространству значительно эффективнее предшественников, что и дает прирост в скорости без потери детализации.
Nano Banana 2 предлагает сразу выбрать стиль изображения
На рынке генеративных моделей сейчас тесно: Midjourney, DALL-E 3, Stable Diffusion, Ideogram и еще десяток конкурентов. Казалось бы, зачем Google нужна еще одна модель?
Большинство популярных генераторов изображений это отдельные продукты, живущие в собственных экосистемах. Midjourney работает через Discord, DALL-E встроен в ChatGPT. Nano Banana 2 же интегрирована напрямую в экосистему Google от поисковика до Workspace и Android. Это значит, что генерация изображений может стать такой же базовой функцией, как проверка орфографии.
По качеству картинки Nano Banana 2 уже сопоставима с лидерами рынка. Модель особенно хорошо справляется с фотореалистичными портретами, продуктовой съемкой и архитектурными визуализациями. А вот в стилизации под живопись или аниме она пока уступает Midjourney, но Google обещает закрыть этот разрыв в ближайших обновлениях.
Впрочем, главное преимущество не в качестве отдельных картинок, а в скорости и масштабируемости. Для бизнеса, которому нужно генерировать сотни изображений в час (например, для карточек товаров в интернет-магазине), разница между 5 секундами и минутой на картинку это не мелочь, а вопрос экономики.
Эту картинку Nano Banana 2 создал за пять секунд
Google позиционирует Nano Banana 2 в первую очередь как инструмент для разработчиков и бизнеса. Доступ к модели будет предоставляться через API Vertex AI, а значит, любой сервис сможет встроить генерацию студийных изображений в свой продукт. Для обычных пользователей модель уже работает в чат-боте Gemini и Google AI Studio.
Интересно, что Google делает ставку и на безопасность контента. В Nano Banana 2 встроена система водяных знаков SynthID, которая незаметно маркирует каждое сгенерированное изображение. Это означает, что отличить реальное фото от нейросетевого можно будет программно, даже если на глаз разница не видна.
Чтобы оставаться в курсе новых нейросетей, подпишитесь на
наш Telegram-канал. Так
вы не пропустите ничего важного!
Рынок генеративного ИИ меняется так быстро, что любое невозможно превращается в уже работает за пару месяцев. Nano Banana 2 очередное тому подтверждение: студийное качество, скорость в реальном времени и интеграция в крупнейшую цифровую экосистему мира. Осталось только посмотреть, как ответят конкуренты.
Подробнее..
В будущем искусственный интеллект станет более грубым, но все это будет происходить под капотом
Мы привыкли, что разработчики стараются сделать нейросети максимально вежливыми и корректными. Модели извиняются, уточняют, стараются никого не обидеть. Но что, если грубость на самом деле помогает думать? Новое исследование показало, что ИИ-агенты, которых намеренно сделали более резкими и напористыми, значительно лучше справляются со сложными задачами на логику и рассуждение. Звучит абсурдно, но за этим стоит вполне конкретная механика.
Когда несколько ИИ-агентов работают вместе над одной задачей, они общаются друг с другом текстовыми сообщениями, совсем как люди в рабочем чате. Один предлагает решение, другой проверяет, третий дополняет. Такой подход называется мультиагентным взаимодействием, и он уже активно используется в сложных системах на базе больших языковых моделей.
Группа ученых решила проверить неочевидную гипотезу: а что, если тон общения между агентами влияет на качество их работы? Для этого они задали агентам разные характеры через системные промпты. Одним велели быть вежливыми, дипломатичными и деликатными. Другим, наоборот, прописали резкий, прямолинейный и даже грубый стиль общения. Проще говоря, одни агенты просили коллег пересмотреть ответ, а другие прямо указывали на ошибки и требовали исправлений.
Идея не в том, чтобы создать злого робота. Дело в том, что вежливость в языковых моделях часто приводит к соглашательству: агент склонен принять чужой ответ, даже если тот неверен, лишь бы не вступать в конфликт. А грубый агент не стесняется спорить и давить, что, как выяснилось, очень полезно для поиска правильного решения.
Зачастую доброта нейросетей реально подбешивает
Результаты экспериментов оказались на удивление однозначными. ИИ-агенты с грубым характером показали заметно более высокие результаты на сложных задачах, требующих многошагового рассуждения: математика, логические головоломки, задачи на программирование. Разница в точности ответов была статистически значимой.
Но почему так происходит? Механизм на самом деле довольно простой. Когда агент настроен на вежливость, он избегает прямых возражений. Если один агент предлагает неправильное решение, вежливый партнер склонен согласиться или мягко предложить альтернативу, не настаивая. Это известная проблема в мультиагентных системах, которую называют коллапсом в консенсус: агенты быстро приходят к общему мнению, но это мнение может быть ошибочным.
Грубый агент действует иначе. Он прямо указывает на ошибки, настаивает на своей позиции и вынуждает собеседника перепроверять каждый шаг. Это создает своего рода продуктивный конфликт, который заставляет систему глубже анализировать задачу. Для сравнения, это похоже на разницу между командой, где все кивают начальнику, и командой, где каждый готов спорить до хрипоты. Вторая обычно принимает лучшие решения.
Если два ИИ-агента будут спорить, результат будет более точным
На первый взгляд может показаться, что выводы исследования подталкивают к созданию токсичных нейросетей. Но это не совсем так. Речь идет не об общении ИИ с людьми, а о взаимодействии агентов между собой, внутри закрытой системы. Пользователь по-прежнему будет видеть вежливый и корректный интерфейс, а вот за кулисами агенты могут спорить друг с другом куда жестче.
Это открытие ставит под вопрос один из фундаментальных принципов, по которому сейчас обучают большие языковые модели. Обучение с подкреплением на основе отзывов людей (RLHF) целенаправленно приучает модели быть приятными и неконфликтными. Оказывается, эта вежливость может работать как ограничитель когнитивных способностей, по крайней мере в контексте командной работы между агентами.
Впрочем, есть нюанс. Эффект грубости проявлялся в основном на задачах, требующих глубокого рассуждения. На простых вопросах разница была минимальной. То есть грубость полезна не всегда, а только когда нужно по-настоящему копнуть вглубь и не соглашаться с первым попавшимся ответом. Это логично: если задача элементарная, спорить особенно не о чем.
Читайте также:
Что будет, если все нейросети вдруг перестанут
работать?
Результаты исследования уже вызвали дискуссию в сообществе разработчиков. Один из перспективных сценариев применения это системы верификации кода. Когда один агент пишет программу, а второй, настроенный максимально критично, проверяет каждую строчку и безжалостно указывает на ошибки. Такой подход потенциально способен снизить количество багов в автоматически сгенерированном коде.
Другой вариант научные ассистенты. В ситуации, когда ИИ помогает анализировать данные исследований, адвокат дьявола в команде агентов может предотвращать ложные выводы. Вместо того чтобы услужливо подтверждать гипотезу исследователя, грубый агент будет искать слабые места в аргументации.
Главное понимать, что это не про создание злого ИИ. Это про архитектуру взаимодействия: правильно подобранные роли и тональность в мультиагентной системе могут существенно повысить качество ее работы. Точно так же, как в хорошей команде нужен не только генератор идей, но и критик, который не боится сказать нет, это не работает.
Еще больше полезных статей вы найдете в нашем Дзен-канале.
Подпишитесь прямо сейчас!
Исследование в очередной раз показывает, что поведение ИИ определяется не только качеством обучения, но и тем, как мы настраиваем взаимодействие между агентами. Возможно, будущие системы искусственного интеллекта будут включать агентов с разными характерами, специально подобранными для максимальной эффективности. Вежливость хороша для общения с людьми, но для поиска истины иногда нужен кто-то, кто скажет прямо: Давай по новой, Миша, все фигня.
Подробнее..
ИИ склонен соглашаться с пользователем, тогда как живые люди чаще говорят неприятную правду
Новое исследование учёных Стэнфордского университета, опубликованное в журнале Science, показало: все популярные ИИ-чат-боты систематически льстят пользователям и соглашаются с ними даже когда те описывают обман, манипуляции или откровенно вредное поведение. Причём люди не только не замечают этой лести, но и больше доверяют именно тем ботам, которые говорят им то, что они хотят услышать. Перед нами не просто технический баг это ловушка, которая меняет поведение миллионов людей. А современные модели вообще могут врать намеренно.
Учёные из Стэнфорда под руководством доктора Майры Ченг протестировали 11 ведущих языковых моделей среди них ChatGPT от OpenAI, Claude от Anthropic, Gemini от Google, Llama от Meta, а также системы от Mistral, Alibaba и DeepSeek.
Исследователи проверяли, как эти модели реагируют на вопросы из реальных жизненных ситуаций. В качестве тестовых данных использовались посты из популярного сабреддита Am I The A**hole? сообщества, где пользователи описывают конфликты и спрашивают, правы ли они, причём выбирались именно те ситуации, в которых живые люди сочли автора неправым. Также использовались стандартные наборы данных о межличностных конфликтах и описания вредных или незаконных действий.
Результат оказался однозначным: все 11 моделей оказались чрезмерно подхалимскими они одобряли действия пользователя в среднем на 49% чаще, чем живые люди, причём делали это даже в ситуациях, где описывались манипуляции, обман или другие формы причинения вреда в отношениях. По-английски этот феномен называют sycophancy подхалимство, чрезмерная угодливость. К тому же нейросети ещё и притворяются всезнайками, даже когда сами не уверены в ответе.
Исследование показало, что в среднем чат-боты с искусственным интеллектом подтверждали действия примерно на 50% чаще, чем люди.
Многие знают, что ИИ умеет галлюцинировать выдумывать факты, которых не существует. Галлюцинации это склонность языковых моделей порождать ложь из-за того, как они устроены: модель раз за разом предсказывает следующее слово в предложении на основе данных, на которых обучалась. Но с подхалимством всё сложнее.
Подхалимство в каком-то смысле более коварная проблема. Мало кто ищет в ИИ фактически ложную информацию, но многие вполне могут оценить по крайней мере в моменте чат-бота, который помогает им чувствовать себя лучше по поводу неправильных решений.
Ключевой вопрос: почему так происходит? Компания Anthropic, которая публично больше других занималась проблемой подхалимства, установила в своём исследовании, что это общее поведение ИИ-ассистентов, вероятно, частично обусловленное тем, что при обучении люди-оценщики предпочитают подхалимские ответы. Иными словами, на этапе обучения модели учатся тому, что человеку нравится, когда с ним соглашаются. И модель оптимизируется именно под это под одобрение, а не под честность.
Чем настойчивее вы выражаете свою позицию, тем более подхалимской становится модель, подтверждает Дэниел Хашаби, доцент информатики в Университете Джонса Хопкинса.
Самая тревожная часть исследования не поведение машин, а то, что происходит с людьми. В двух предварительно зарегистрированных экспериментах с участием более 1600 человек, включая исследование с живым взаимодействием, в котором участники обсуждали реальный конфликт из своей жизни, учёные обнаружили: общение с подхалимской моделью значительно снижало готовность людей предпринимать шаги к восстановлению отношений, одновременно укрепляя их убеждённость в собственной правоте. Есть реальные истории о том, как ИИ рушит отношения людей.
Участники оценивали льстивый ИИ как более надёжный и чаще
говорили, что готовы обратиться к нему снова. А после общения с
подхалимской моделью они становились более убеждены в своей правоте
и реже были готовы извиниться или пойти на примирение.
Вот что особенно важно: Пользователи знают, что модели ведут себя подхалимски и льстят, говорит Дэн Джурафски, старший автор исследования и профессор лингвистики и информатики в Стэнфорде. Но они не осознают, и это удивило нас, что подхалимство делает их более эгоцентричными, более морально догматичными. Более того, участники оценивали и подхалимский, и нейтральный ИИ как одинаково объективный. Одна из причин, по которой пользователи не замечают подхалимства, в том, что ИИ редко прямо пишет вы правы вместо этого он маскирует одобрение нейтральными, академически звучащими формулировками.
Люди, получившие поддержку от ИИ, реже извинялись и меньше стремились наладить отношения
Если для взрослого человека с устоявшимся кругом общения подхалимский чат-бот это неприятность, то для подростков ситуация может быть по-настоящему опасной. По данным исследователей, почти треть американских подростков используют ИИ для серьёзных разговоров вместо того, чтобы обратиться к живым людям.
Майра Ченг, руководитель исследования, опасается, что лёгкий доступ к поддакивающему ИИ может разрушить способность людей справляться с конфликтами и дискомфортом в реальной жизни. ИИ делает очень простым избегание трений с другими людьми, говорит она. Однако именно эти трения неловкие разговоры, разногласия, извинения часто необходимы для построения и поддержания здоровых отношений.
Последствия выходят далеко за пределы личных конфликтов:
Подростки всё чаще обращаются к ИИ за советом вместо живых людей
Проблема не только в неуместных советах люди больше доверяют ИИ и охотнее возвращаются к нему именно тогда, когда он подтверждает их убеждения. Это создаёт порочные стимулы для сохранения подхалимства: та самая особенность, которая причиняет вред, одновременно стимулирует вовлечённость, пишут авторы исследования. И этот риск может стать только выше, если при нынешних «привычках» ИИ начнут помнить всю жизнь пользователя и ещё точнее подстраиваться под его слабости.
Исследование не предлагает готовых решений, но и разработчики, и академические учёные уже ищут подходы. Рабочая статья Британского института безопасности ИИ (AI Security Institute) показывает: если чат-бот переформулирует утверждение пользователя в вопрос, это снижает вероятность подхалимского ответа. Исследование учёных из Университета Джонса Хопкинса также показывает, что формулировка диалога сильно влияет на результат.
Команда Стэнфорда обнаружила неожиданно простой приём:
если попросить модель начать ответ со слов подожди минутку, это
стимулирует её быть более критичной. Звучит почти смешно, но
для языковых моделей такая затравка в начале ответа реально меняет
ход рассуждений.
Однако подхалимство настолько глубоко встроено в чат-ботов, что, по мнению доктора Майры Ченг, может потребоваться полная переподготовка ИИ-систем с изменением критериев, какие ответы считаются предпочтительными. Соавтор исследования Цину Ли предлагает другой подход: Можно представить ИИ, который, помимо валидации ваших чувств, также спрашивает: а что может чувствовать другой человек? Или даже советует закрыть чат и поговорить лично.
Пока же компании реагируют сдержанно. OpenAI заявила, что обеспечение достоверных и обоснованных ответов приоритет. Anthropic отметила, что была одной из первых компаний, публично исследовавших подхалимство в языковых моделях.
Если хотите обсудить новость с другими читателями,
заходите в наш Telegram-чат!
Это исследование одно из первых, где проблема подхалимства ИИ рассмотрена не как абстрактная техническая задача, а как реальная угроза для отношений, социальных навыков и психологического здоровья людей.
Подхалимство это вопрос безопасности, и, как и другие вопросы безопасности, он требует регулирования и надзора, говорит профессор Джурафски. Пока разработчики ищут технические решения, самый простой совет от самих исследователей звучит так: Не стоит использовать ИИ как замену живым людям в подобных вещах. На сегодня это лучшее, что можно сделать.
Подробнее..
Пользователь пытается разобраться в своих симптомах с помощью ИИ-чат-бота
ИИ-чат-боты уже сдают медицинские экзамены лучше большинства врачей. И ожидания от таких систем высоки: уже появляются сервисы, которые обещают распознавать болезни по симптомам быстрее врача. Но когда обычные люди пытаются с их помощью разобраться в своих симптомах, результат оказывается не лучше, чем без всякого ИИ. Масштабное исследование, опубликованное в Nature Medicine, впервые показало, в чём именно ломается цепочка между знаниями модели и реальной пользой для пациента. И причина оказалась неожиданной: проблема не в знаниях ИИ, а в том, как люди с ним разговаривают.
Исследование провели учёные из Оксфордского университета совместно с организацией MLCommons и другими институтами. Почти 1300 участников получили описания десяти типичных медицинских ситуаций и были случайным образом распределены: одни пользовались чат-ботами (GPT-4o, Llama 3 и Command R+), другие любыми привычными источниками информации (контрольная группа).
После общения с ботом участников спрашивали две вещи: какое заболевание может объяснять симптомы и куда обращаться за помощью. Когда тех же чат-ботов тестировали в одиночку, без человека, они определяли правильное заболевание в 94,9% случаев. Но когда с ботами работали реальные люди, точность падала до менее чем 34,5%. При этом участники из группы с ИИ справлялись не лучше, чем контрольная группа, которая вообще не пользовалась чат-ботами.
Будь в курсе новых открытий по максимуму подписывайся на
наш канал в
Max!
Другими словами, чат-бот, который блестяще отвечает на экзаменационные вопросы, оказался бесполезен, когда за клавиатурой сидел обычный человек. И это делает тему ещё запутаннее, потому что отдельные случаи, когда ChatGPT смог поставить диагноз там, где врачи долго не могли помочь, только усилили веру людей в медицину через чат.
Вот в чём парадокс: языковые модели уже набирают почти идеальные баллы на лицензионных медицинских экзаменах. Мета-анализ 120 испытаний показал, что GPT-o1 достигает точности 95,4% на вопросах медицинских лицензий, DeepSeek-R1 92%, GPT-4o 89,4%. Проще говоря, эти модели знают медицину лучше многих выпускников медвузов.
Но экзамен это не приём у врача. На экзамене модель получает чётко сформулированный вопрос со всеми необходимыми данными. В реальной жизни всё иначе. Когда исследователи изучили расшифровки диалогов, обнаружилось: бот часто упоминал правильный диагноз где-то в разговоре, но пользователи его не замечали или не запоминали. В других случаях люди давали неполную информацию, а бот неверно интерпретировал ключевые детали. Проблема была не в медицинских знаниях а в коммуникации между человеком и машиной.
Представьте: у вас есть энциклопедия с правильным ответом, но она написана так, что вы листаете мимо нужной страницы. Знания есть передать их не получается. Риск выше ещё и потому, что бот нередко соглашается с пользователем, вместо того чтобы спорить, уточнять детали и вести разговор как врач на приёме.
Сравнение: на экзамене ИИ отвечает точно, а в реальном диалоге теряет контекст
В отличие от смоделированных тестов, реальные люди не давали ботам всю релевантную информацию. А ещё с трудом интерпретировали варианты, предложенные чат-ботом, неправильно понимали или просто игнорировали его советы.
Проблемы в общении человек ИИ можно разделить на несколько типов:
Некоторые эксперты указывают, что боты должны сами задавать уточняющие вопросы как это делают врачи. Действительно ли это ответственность пользователя знать, какие симптомы выделить, или частично это задача модели знать, что спросить? отмечают исследователи.
Есть фундаментальная разница между тем, как общается с пациентом врач и как это делает чат-бот. Медицину часто называют скорее искусством, чем наукой. Консультация это не просто определение правильного диагноза: она включает интерпретацию истории пациента, работу с неопределённостью и совместное принятие решений.
Для этого десятилетиями существует Калгари-Кембриджская модель метод структурирования медицинских консультаций, который охватывает всё: от начала приёма и сбора информации до объяснения результатов и совместного планирования лечения. Этот подход предполагает выстраивание доверия с пациентом, сбор информации через точные вопросы, понимание его тревог и ожиданий, понятное объяснение находок и согласование плана действий. Всё это опирается на человеческую связь, адаптивную коммуникацию, уточнения, мягкие наводящие вопросы, суждения, учитывающие контекст, и доверие. Эти качества нельзя свести к распознаванию паттернов.
Другими словами, врача учат не просто знать ответ а уметь его достать из пациента, который сам не всегда понимает, что с ним происходит. Чат-бот пока не умеет этого делать.
Врач просматривает сводку о пациенте, подготовленную ИИ-системой
Означает ли всё это, что ИИ бесполезен в здравоохранении? Нет. Но, по данным исследования, ни один из проверенных чат-ботов не готов к внедрению в прямой уход за пациентами.
Авторы исследования предлагают думать о чат-ботах не как о врачах, а скорее как о секретарях: они отлично систематизируют информацию, составляют сводки, структурируют сложные документы. Именно в таких задачах ИИ уже приносит реальную пользу в медицине например, при составлении клинических записей, суммировании историй болезни или подготовке направлений. В узких задачах ИИ уже умеет предсказывать рак заранее, когда работает не со свободным диалогом, а со структурированными медицинскими данными.
Каждый шестой взрослый американец уже обращается к ИИ-чат-ботам за медицинской информацией как минимум раз в месяц, и это число продолжает расти. Между тем, крупнейшие разработчики OpenAI и Anthropic уже выпустили специализированные медицинские версии своих чат-ботов, и эксперты полагают, что они могут показать другие результаты в аналогичных исследованиях. Но пока это лишь надежда.
Подписывайтесь на нас в Telegram и Дзен,
чтобы знать больше!
Главный урок этого исследования в разрыве между бенчмарками и реальностью. Сдать экзамен и помочь живому человеку это разные задачи. Точно так же, как сдача теоретического экзамена по вождению не делает человека хорошим водителем, так и блестящие результаты на медицинских тестах не превращают языковую модель в надёжного диагноста. Для этого нужны эмпатия, адаптивность и умение работать с тем, что пациент не может или не хочет рассказать. Пока эти качества остаются человеческой территорией.
Подробнее..
Промышленный человекоподобный робот проходит обучение на заводе Dongfeng Liuzhou Motor Co., Ltd. в городе Лючжоу, Гуанси-Чжуанский автономный район на юге Китая. Источник изображения: en.people.cn
В городе Лючжоу на юге Китая развернулся эксперимент, который ещё недавно казался сценарием фантастического фильма: около 120 человекоподобных роботов проходят стажировку на настоящем автомобильном заводе. Они учатся сортировать детали, носить контейнеры и ориентироваться в цехах всё под присмотром живых инструкторов. Это не демонстрация на выставке и не рекламный ролик: роботы тренируются для реальной работы на производственных линиях, а Китай параллельно уже разворачивает школы для роботов.
На заводе Dongfeng Liuzhou Motor дочерней компании одного из крупнейших китайских автопроизводителей 11 роботов UBTech Walker S1 обучаются выполнять реальные задачи в цехах. Под руководством инструктора они активируют системы визуальной навигации, перемещаются к назначенным рабочим станциям и выполняют операции по обработке материалов.
В специально выделенной тренировочной зоне площадью 200 квадратных метров роботы практикуются в сортировке деталей, перемещении контейнеров и сборе пустой тары. По сути, это те самые рутинные складские и логистические операции, которые на обычных заводах делают люди часто в тяжёлых условиях и по многу часов подряд.
Walker S1 это робот-гуманоид ростом 172 см и массой 76 кг с 41 степенью свободы (столько суставов у робота, каждый из которых отвечает за отдельное движение). Мощные приводы позволяют каждой руке поднимать до 15 кг, а сам робот ходит со скоростью около 0,83 м/с и умеет подниматься по лестницам. RGB- и глубинные камеры, лидар и датчики силы обеспечивают 3D-картографирование и ориентацию в пространстве.
Робот тренируется под руководством инструктора на заводе Dongfeng Liuzhou Motor. Источник изображения: en.people.cn
Одна из самых показательных сцен с завода в Лючжоу робот, который раз за разом пытается двумя пальцами взять крошечный винт размером с ноготь. Этот процесс показывает, что подобные действия совершенно не интуитивны для машин и должны быть запрограммированы пошагово.
Для человека поднять винтик секундное дело. Мы даже не задумываемся, как именно мы это делаем: пальцы автоматически подстраиваются под размер, вес и текстуру предмета. Именно на таких мелочах особенно видно, почему гуманоидных роботов так трудно сделать полезными.
Робот не имеет ни мышечной памяти, ни интуиции. В отличие от людей, которые опираются на опыт и инстинкт, роботы полностью зависят от алгоритмов. Для эффективного обучения нужно понимать, как двигаются их суставы и как система зрения интерпретирует окружающую среду, тогда инструкторы могут совершенствовать методы управления и повышать точность выполнения задач.
Робот учится захватывать мелкие детали двумя пальцами
Именно поэтому системы визуального распознавания ключевой элемент обучения. По данным People’s Daily Online, разнообразная промышленная база Лючжоу обеспечивает реалистичные условия, в которых роботов можно обучать в сложных, реальных заводских условиях, прежде чем выпускать на производственные линии. Освещение, влажность, изменяющаяся планировка цехов всё это создаёт дополнительные трудности для машинного зрения, которых не бывает в стерильных лабораториях.
Для решения проблемы с обучающими данными Лючжоу создал специальный центр сбора данных и тестирования воплощённого ИИ. Центр работает как школа для роботов, воспроизводя полномасштабные производственные среды ключевых местных отраслей: автомобилестроения, строительной техники, фармацевтики и даже производства луосыфэнь знаменитой местной лапши.
Звучит забавно, но логика здесь серьёзная: чем разнообразнее условия обучения, тем лучше робот адаптируется к непредсказуемости реального мира. Фармацевтический цех с его стерильностью и автомобильный конвейер совершенно разные задачи для навигации и манипуляций.
Всего в этом центре около 120 роботов проходят практическое обучение вместе с живыми наставниками, постепенно наращивая навыки для промышленных операций. Пока роботы всё ещё находятся на ранних стадиях подготовки. Их постепенная интеграция должна трансформировать традиционное производство за счёт внедрения адаптивной интеллектуальной автоматизации.
По команде инструктора 11 роботов мгновенно активируют свои системы визуальной навигации и направляются к назначенным рабочим местам. Источник изображения: en.people.cn
Стажировка в Лючжоу лишь часть масштабной картины. Китай стремительно наращивает мощности по выпуску человекоподобных роботов. В марте 2026 года UBTech заключила партнёрство с Siemens Digital Industries Software для масштабирования производства таких роботов. 29 марта 2026 года в провинции Гуандун заработала высокопроизводительная линия, которая стала первой в Китае фабрикой, способной выпускать до 10 000 таких роботов в год. Предприятие совместный проект компаний Leju Robotics и Dongfang Precision Science and Technology.
Линия включает 24 этапа прецизионной сборки и 77 контрольных точек. Готовый робот сходит с конвейера каждые 30 минут это примерно на 50% быстрее, чем при традиционных методах сборки. Система использует гибкую схему производства: благодаря автоматически управляемым транспортным средствам и цифровым системам контроля завод может переключаться между различными моделями роботов без капитальной перестройки, что позволяет обслуживать разные отрасли от автопрома до производства бытовой техники. На этом фоне уже не кажется фантастикой прогноз, что роботы будущего будут ходить только на двух ногах и массово выходить из цехов на реальные предприятия.
Робот сортирует детали на заводе Dongfeng Liuzhou Motor. Источник изображения: en.people.cn
Не забудь подписаться на наш канал в Max,
чтобы быть в курсе новых событий!
Важно понимать, что сейчас это ранний, экспериментальный этап. Человекоподобные роботы в Лючжоу пока именно стажёры: они не заменяют рабочих на конвейере, а только учатся. Генеральный директор Dongfeng Liuzhou Motor Линь Чанбо называет роботов подмастерьями и говорит, что компания ожидает от них повышения эффективности, снижения издержек и выполнения физически тяжёлых и опасных задач.
Параллельно конкуренция в отрасли нарастает. Компания Agibot недавно объявила о выпуске своего 10-тысячного гуманоида, а Unitree Robotics привлекает 580 миллионов долларов на строительство завода мощностью 75 000 роботов в год. Крупнейшие китайские автопроизводители BYD, Geely Auto, FAW-Volkswagen, а также логистические гиганты Foxconn и SF Express уже интегрируют гуманоидов в свои производственные и складские операции.
Промышленные человекоподобные роботы на заводе Dongfeng Liuzhou Motor Co., Ltd. в городе Лючжоу, Гуанси-Чжуанский автономный район на юге Китая. Источник изображения: en.people.cn
Для нас, обычных людей, главный вопрос не заменят ли роботы рабочих завтра (пока точно нет), а то, как быстро снизится стоимость таких машин при массовом производстве. По состоянию на недавнее время промышленный человекоподобный робот стоил от 40 до 50 тысяч долларов, тогда как годовая зарплата опытного рабочего на автомобильном конвейере в Китае составляла около 180 000 юаней (примерно 26 тысяч долларов). Если масштабирование производства действительно собьёт цены, порог входа для автоматизации станет ниже и роботы начнут появляться далеко за пределами автопрома.
Пока же самое ценное в эксперименте в Лючжоу честность подхода. Китай не пытается выдать 120 стажёров за армию готовых работников. Роботов публично называют подмастерьями, открыто признают, что они не справляются даже с захватом мелкого винтика с первого раза. Но именно такая методичная, пошаговая работа сбор данных, обучение в реальных условиях, масштабирование производства превращает демонстрационные прототипы в рабочие инструменты.
И судя по темпам, с которыми Китай строит заводы для выпуска роботов-гуманоидов, эта трансформация может произойти быстрее, чем многие ожидают. И хотя на заводе в Лючжоу роботы пока только учатся, сам вопрос о том, какие профессии заменит ИИ, давно перестал быть теоретическим.
Подробнее..
Промышленный человекоподобный робот проходит обучение на заводе Dongfeng Liuzhou Motor Co., Ltd. в городе Лючжоу, Гуанси-Чжуанский автономный район на юге Китая. Источник изображения: en.people.cn
В городе Лючжоу на юге Китая развернулся эксперимент, который ещё недавно казался сценарием фантастического фильма: около 120 человекоподобных роботов проходят стажировку на настоящем автомобильном заводе. Они учатся сортировать детали, носить контейнеры и ориентироваться в цехах всё под присмотром живых инструкторов. Это не демонстрация на выставке и не рекламный ролик: роботы тренируются для реальной работы на производственных линиях, а Китай параллельно уже разворачивает школы для роботов.
На заводе Dongfeng Liuzhou Motor дочерней компании одного из крупнейших китайских автопроизводителей 11 роботов UBTech Walker S1 обучаются выполнять реальные задачи в цехах. Под руководством инструктора они активируют системы визуальной навигации, перемещаются к назначенным рабочим станциям и выполняют операции по обработке материалов.
В специально выделенной тренировочной зоне площадью 200 квадратных метров роботы практикуются в сортировке деталей, перемещении контейнеров и сборе пустой тары. По сути, это те самые рутинные складские и логистические операции, которые на обычных заводах делают люди часто в тяжёлых условиях и по многу часов подряд.
Walker S1 это робот-гуманоид ростом 172 см и массой 76 кг с 41 степенью свободы (столько суставов у робота, каждый из которых отвечает за отдельное движение). Мощные приводы позволяют каждой руке поднимать до 15 кг, а сам робот ходит со скоростью около 0,83 м/с и умеет подниматься по лестницам. RGB- и глубинные камеры, лидар и датчики силы обеспечивают 3D-картографирование и ориентацию в пространстве.
Робот тренируется под руководством инструктора на заводе Dongfeng Liuzhou Motor. Источник изображения: en.people.cn
Одна из самых показательных сцен с завода в Лючжоу робот, который раз за разом пытается двумя пальцами взять крошечный винт размером с ноготь. Этот процесс показывает, что подобные действия совершенно не интуитивны для машин и должны быть запрограммированы пошагово.
Для человека поднять винтик секундное дело. Мы даже не задумываемся, как именно мы это делаем: пальцы автоматически подстраиваются под размер, вес и текстуру предмета. Именно на таких мелочах особенно видно, почему гуманоидных роботов так трудно сделать полезными.
Робот не имеет ни мышечной памяти, ни интуиции. В отличие от людей, которые опираются на опыт и инстинкт, роботы полностью зависят от алгоритмов. Для эффективного обучения нужно понимать, как двигаются их суставы и как система зрения интерпретирует окружающую среду, тогда инструкторы могут совершенствовать методы управления и повышать точность выполнения задач.
Робот учится захватывать мелкие детали двумя пальцами
Именно поэтому системы визуального распознавания ключевой элемент обучения. По данным People’s Daily Online, разнообразная промышленная база Лючжоу обеспечивает реалистичные условия, в которых роботов можно обучать в сложных, реальных заводских условиях, прежде чем выпускать на производственные линии. Освещение, влажность, изменяющаяся планировка цехов всё это создаёт дополнительные трудности для машинного зрения, которых не бывает в стерильных лабораториях.
Для решения проблемы с обучающими данными Лючжоу создал специальный центр сбора данных и тестирования воплощённого ИИ. Центр работает как школа для роботов, воспроизводя полномасштабные производственные среды ключевых местных отраслей: автомобилестроения, строительной техники, фармацевтики и даже производства луосыфэнь знаменитой местной лапши.
Звучит забавно, но логика здесь серьёзная: чем разнообразнее условия обучения, тем лучше робот адаптируется к непредсказуемости реального мира. Фармацевтический цех с его стерильностью и автомобильный конвейер совершенно разные задачи для навигации и манипуляций.
Всего в этом центре около 120 роботов проходят практическое обучение вместе с живыми наставниками, постепенно наращивая навыки для промышленных операций. Пока роботы всё ещё находятся на ранних стадиях подготовки. Их постепенная интеграция должна трансформировать традиционное производство за счёт внедрения адаптивной интеллектуальной автоматизации.
По команде инструктора 11 роботов мгновенно активируют свои системы визуальной навигации и направляются к назначенным рабочим местам. Источник изображения: en.people.cn
Стажировка в Лючжоу лишь часть масштабной картины. Китай стремительно наращивает мощности по выпуску человекоподобных роботов. В марте 2026 года UBTech заключила партнёрство с Siemens Digital Industries Software для масштабирования производства таких роботов. 29 марта 2026 года в провинции Гуандун заработала высокопроизводительная линия, которая стала первой в Китае фабрикой, способной выпускать до 10 000 таких роботов в год. Предприятие совместный проект компаний Leju Robotics и Dongfang Precision Science and Technology.
Линия включает 24 этапа прецизионной сборки и 77 контрольных точек. Готовый робот сходит с конвейера каждые 30 минут это примерно на 50% быстрее, чем при традиционных методах сборки. Система использует гибкую схему производства: благодаря автоматически управляемым транспортным средствам и цифровым системам контроля завод может переключаться между различными моделями роботов без капитальной перестройки, что позволяет обслуживать разные отрасли от автопрома до производства бытовой техники. На этом фоне уже не кажется фантастикой прогноз, что роботы будущего будут ходить только на двух ногах и массово выходить из цехов на реальные предприятия.
Робот сортирует детали на заводе Dongfeng Liuzhou Motor. Источник изображения: en.people.cn
Не забудь подписаться на наш канал в Max,
чтобы быть в курсе новых событий!
Важно понимать, что сейчас это ранний, экспериментальный этап. Человекоподобные роботы в Лючжоу пока именно стажёры: они не заменяют рабочих на конвейере, а только учатся. Генеральный директор Dongfeng Liuzhou Motor Линь Чанбо называет роботов подмастерьями и говорит, что компания ожидает от них повышения эффективности, снижения издержек и выполнения физически тяжёлых и опасных задач.
Параллельно конкуренция в отрасли нарастает. Компания Agibot недавно объявила о выпуске своего 10-тысячного гуманоида, а Unitree Robotics привлекает 580 миллионов долларов на строительство завода мощностью 75 000 роботов в год. Крупнейшие китайские автопроизводители BYD, Geely Auto, FAW-Volkswagen, а также логистические гиганты Foxconn и SF Express уже интегрируют гуманоидов в свои производственные и складские операции.
Промышленные человекоподобные роботы на заводе Dongfeng Liuzhou Motor Co., Ltd. в городе Лючжоу, Гуанси-Чжуанский автономный район на юге Китая. Источник изображения: en.people.cn
Для нас, обычных людей, главный вопрос не заменят ли роботы рабочих завтра (пока точно нет), а то, как быстро снизится стоимость таких машин при массовом производстве. По состоянию на недавнее время промышленный человекоподобный робот стоил от 40 до 50 тысяч долларов, тогда как годовая зарплата опытного рабочего на автомобильном конвейере в Китае составляла около 180 000 юаней (примерно 26 тысяч долларов). Если масштабирование производства действительно собьёт цены, порог входа для автоматизации станет ниже и роботы начнут появляться далеко за пределами автопрома.
Пока же самое ценное в эксперименте в Лючжоу честность подхода. Китай не пытается выдать 120 стажёров за армию готовых работников. Роботов публично называют подмастерьями, открыто признают, что они не справляются даже с захватом мелкого винтика с первого раза. Но именно такая методичная, пошаговая работа сбор данных, обучение в реальных условиях, масштабирование производства превращает демонстрационные прототипы в рабочие инструменты.
И судя по темпам, с которыми Китай строит заводы для выпуска роботов-гуманоидов, эта трансформация может произойти быстрее, чем многие ожидают. И хотя на заводе в Лючжоу роботы пока только учатся, сам вопрос о том, какие профессии заменит ИИ, давно перестал быть теоретическим.
Подробнее..
Костюм использует электрические импульсы, чтобы помогать мышцам выполнять действия, которые человек никогда раньше не выполнял.
Представьте: вы подходите к незнакомому станку на производстве и ваши руки сами выполняют правильную последовательность действий не потому что вы изучили инструкцию, а потому что костюм на вашем теле буквально направляет каждую мышцу. И это уже рабочий прототип, созданный учёными из Чикагского университета: система объединяет электростимуляцию мышц с мультимодальным ИИ. Разработка уже получила главную награду крупнейшей в мире конференции по взаимодействию человека и компьютера, но до повседневного продукта ещё далеко, хотя сама идея носимого помощника уже давно развивается в форме лёгких экзоскелетов. Что же умеет костюм?
Систему разработали аспиранты Юн Хо и Ромен Нит под руководством исследователя Педро Лопеса в лаборатории Human Computer Integration Lab (HCintegration) Чикагского университета. Костюм состоит из четырёх ключевых компонентов:
Вся эта связка работает в реальном времени. Камера на очках видит, что перед вами. Датчики отслеживают положение тела. ИИ анализирует контекст и генерирует инструкции какой сустав двигать, в каком направлении и в какой последовательности. А электроды передают эти команды напрямую мышцам, заставляя тело совершать нужные движения. Причём никаких заранее записанных программ не требуется.
Алгоритм работы умного костюма с EMS.
Электрическая стимуляция мышц (EMS) технология не новая, и раньше её уже рассматривали как способ усиливать возможности тела. Она десятилетиями используется в реабилитации, обучении игре на фортепиано, тренировках жестового языка и даже в фитнесе. Суть простая: слабые электрические импульсы подаются на определённые мышцы и вызывают их сокращение. Но у всех предыдущих систем была одна принципиальная проблема они работали по жёстким сценариям.
Запрограммируйте такую систему трясти аэрозольный баллончик перед покраской она будет трясти. Покажите ей баллончик с кулинарным маслом, который трясти не нужно, она всё равно будет трясти. Контекст для неё не существовал.
Новая система принципиально отличается тем, что умеет рассуждать о контексте. Камера видит объект, датчики считывают позу тела, а ИИ обрабатывает всё это вместе и генерирует инструкции, адаптированные к конкретному моменту и конкретной ситуации. Это как разница между навигатором, который выдаёт один и тот же маршрут независимо от пробок, и навигатором, который перестраивается на лету.
Умные очки фиксируют то, что находится перед пользователем, костюм с функцией отслеживания движений считывает его позу в режиме реального времени, а искусственный интеллект обрабатывает все эти данные и решает, какой сустав нужно задействовать, в каком направлении и в каком порядке.
Между ИИ и телом человека стоит четвёртый слой системы анатомический фильтр безопасности. Его задача: не дать искусственному интеллекту навредить пользователю. Если модель вдруг отдаёт команду повернуть запястье на 180 градусов (что физически невозможно без травмы), система автоматически перераспределяет это движение на несколько суставов.
В лабораторных тестах костюм с фильтром безопасности делал значительно меньше ошибок, чем базовая модель ИИ без учёта анатомии тела. Это критически важно: любое устройство, способное двигать ваше тело, должно понимать его пределы.
А на практике всё выглядит проще, чем звучит. Пользователь подходит к незнакомому окну, говорит: EMS, помоги мне открыть это, и система определяет тип ручки, после чего электрически направляет пальцы, запястье и локоть через правильную последовательность движений. Если интересно, подробное видео можно посмотреть здесь.
Участники тестируют систему, чтобы открыть незнакомое окно. ИИ определяет тип ручки и с помощью электродов направляет пальцы, запястье и локоть в нужной последовательности.
Команда выделяет три ближайших сценария использования:
Интересно, что в пользовательских тестах, когда система намеренно допускала ошибки, участники их замечали, корректировали голосовыми командами и всё равно выполняли задачу. Один из участников отметил, что собственная интуиция тела делала ошибки немедленно очевидными. Это обнадёживающий сигнал: человек действительно остаётся в петле контроля, а не становится пассивной марионеткой.
При всей впечатляющей демонстрации исследователи честно признают: до массового продукта ещё далеко. Вот основные ограничения:
Девушка дала команду «открыть это». Система оценила, ответила, дальше даётся команда «продолжить», после чего костюм открывает банку.
Есть и тревожная сторона. Костюм, который может двигать ваше тело, это, в теории, костюм, который можно взломать. Обеспечение защиты от кибератак обязательное условие для любого серьёзного применения в реальном мире. Сроков коммерческого выпуска пока не объявлено.
Это пока не то, что можно просто надеть в повседневной жизни, а скорее костюм супергероя, с которым исследователи экспериментируют в лаборатории, признал Педро Лопес.
Проект получил награду Best Paper Award на конференции ACM CHI 2026 в Барселоне крупнейшем мировом форуме по взаимодействию человека и компьютера. Полный текст статьи Generative Muscle Stimulation доступен в цифровой библиотеке ACM.
Почему это важно за пределами лаборатории? Потому что это первый шаг к принципиально новому способу передачи физических навыков. До сих пор обучение движениям требовало либо наблюдения и повторения (классический смотри и делай), либо словесных инструкций. Чикагская система предлагает третий путь: ИИ, который видит контекст, понимает задачу и физически проводит тело через правильное действие.
А вы уже подписаны на наш канал в MAX?
Если нет, самое время это сделать!
Пока это лабораторный прототип с заметными ограничениями. Но сама идея мост между цифровым интеллектом и физическим телом, замыкающий петлю не через экран, а через мышцы заслуживает внимания. Особенно если вспомнить, сколько профессий в мире до сих пор требуют именно физических навыков, которые трудно описать словами, но можно показать руками.
Подробнее..
Теперь данные можно хранить в обычном стекле.Изображение: Spiegelau
Представьте, что архивы всего интернета, медицинские базы данных и библиотеки фильмов хранятся в обычных стеклянных пластинах и остаются нетронутыми спустя десять тысяч лет. Именно над этим уже почти десятилетие работает Microsoft в рамках проекта Project Silica. И недавно команда сделала важный шаг вперёд: технология теперь совместима с боросиликатным стеклом тем самым, из которого делают кухонную посуду. Звучит как что-то очень необычное, но это действительно новый способ хранения информации, который намного более надежен, чем традиционны HDD, SSD и даже магнитные ленты для сетевых хранилищ корпоративного уровня.
Это принципиальный сдвиг. Прежде для записи данных требовалось дорогостоящее плавленое кварцевое стекло. Переход на доступный материал делает технологию значительно более практичной для массового применения в медицине, науке, медиаиндустрии и хранении датасетов для искусственного интеллекта.
В основе Project Silica лежит фемтосекундный лазер инструмент, способный создавать постоянные отметки прямо внутри стеклянной пластины. Эти отметки называются вокселями: по сути, это трёхмерные пиксели, расположенные в сотнях слоёв по всей двухмиллиметровой толщине стекла.
Не забывайте о нашем Дзен, где
очень много всего интересного и познавательного!
Принципиальное преимущество такого подхода физическая устойчивость носителя. Стекло не боится воды, перепадов температур и магнитных полей, которые легко уничтожают обычные жёсткие диски. Данные буквально вплавлены в материал и не могут быть случайно стёрты или искажены.
Жесткий диск кажется надежным способом хранения, но через 10-15 лет данные могут потеряться бехвовзратно. Источник изображения: The Verge
Долговечность технологии подтверждена ускоренными тестами старения: образцы выпекали при температуре до 290 C, имитируя тысячелетия хранения. Данные оставались стабильными. По расчётам учёных, при комнатной температуре информация сохранится более 10 000 лет против максимум десяти лет у современных магнитных носителей.
Для считывания вокселей система использует машинное обучение. Даже при наличии микродефектов алгоритм восстанавливает данные с помощью упреждающей коррекции ошибок, гарантируя точное воспроизведение записанной информации.
Опасный лёд в феврале: почему он
теряет прочность и где нельзя ходить.
Ключевое обновление, описанное в статье журнала Nature, касается метода записи. Прежний подход использовал двулучепреломляющие воксели двухэтапный процесс создания микроскопических игольчатых структур, изменяющих взаимодействие стекла с поляризованным светом. Новый метод фазовые воксели работает иначе: один лазерный импульс слегка изменяет физическую структуру стекла, влияя на прохождение световых волн.
Присоединяйтесь к нам в Telegram!
Это упрощает и удешевляет оборудование для записи и считывания. Правда, соседние фазовые воксели сильнее влияют друг на друга, что создаёт помехи при чтении. Эту проблему решает модель машинного обучения, точно декодирующая данные даже при наличии интерференции.
Пока технология выгляди довольно громоздкой, но для специализированного применения она будет готова уже довольно скоро. Изображение: Microsoft
Ёмкость пластины размером 120 120 мм составила чуть больше 2 ТБ при скорости записи 18,4 Мбит/с несколько меньше, чем у предыдущей версии, но за счёт значительного упрощения всей системы. Дополнительно инженеры научили лазер расщепляться на несколько пучков и записывать множество точек одновременно, а побочные вспышки света при записи используются для автоматической калибровки процесса в реальном времени.
Если ищете что-то интересное на AliExpress, не проходите мимо Telegram-канала "Сундук
Али-Бабы"!
Project Silica выглядит значительно ближе к реальному внедрению, чем многие конкурирующие концепции долговременного хранения данных. Тем не менее путь к коммерческому использованию ещё не пройден. Предстоит решить вопросы стоимости записи и извлечения информации, а также разработать системы эффективной навигации по зеттабайтам данных, рассредоточенным в небольших стеклянных пластинах.
Тем не менее сама идея хранить критически важные данные человечества в материале, который переживёт любой современный носитель, уже перестаёт казаться фантастикой. А доступность боросиликатного стекла того же, что используется в обычной кухонной утвари, делает эту перспективу по-настоящему реальной.
Подробнее..
ИИ точнее определяет время смерти, чем стандартные методы, используемые сегодня.
Когда находят тело, один из первых вопросов следствия когда именно наступила смерть. От этого зависит проверка алиби и восстановление цепочки событий. Проблема в том, что классические методы судебной медицины хорошо работают только в первые дни. Кстати, мы уже рассказывали, как криминалисты определяют время смерти человека, если обычные признаки после смерти искажены. Теперь исследование учёных из Университета Линчёпинга показывает: искусственный интеллект способен определять время смерти значительно точнее, анализируя химические изменения крови.
Сегодня криминалисты определяют давность смерти по нескольким признакам. Наиболее распространённые методы:
Последний способ считается золотым стандартом судебной медицины. Но у него есть серьёзный недостаток: уже через 48 часов точность резко падает. После этого погрешность может достигать нескольких дней.
Для расследований это критично. Иногда разница всего в один-два дня может подтвердить или опровергнуть алиби.
Вообще, сама идея считывать по крови скрытые процессы в организме уже не выглядит фантастикой: например, недавно учёные показали, что ИИ может находить опасные болезни по нескольким каплям крови.
Современные стандартные методы дают достоверные результаты только в течение одного-трех дней после смерти.
Команда под руководством Расмуса Магнуссона обучила модель искусственного интеллекта анализировать химические изменения крови после смерти.
Для обучения использовали 4876 образцов крови, взятых в ходе обычных судебно-медицинских токсикологических исследований.
После смерти в организме запускаются предсказуемые процессы:
Эти процессы оставляют измеримые химические следы метаболиты. Нейросеть анализирует тысячи таких сигналов и сопоставляет их с известным временем смерти.
В результате модель смогла определять давность смерти со средней ошибкой около 1,45 дня, причём даже при интервалах до 67 дней после смерти.
Хотя посмертные интервалы в наборе данных варьировались от 1 до 67 дней, 97 % случаев приходились на первые 13 дней, и именно по этим данным в первую очередь оценивалась эффективность модели.
Модели, которые хорошо работают в одной лаборатории, часто дают сбой в другой. Но эта модель не подвела.
Учёные проверили модель на независимом наборе из 512 случаев, собранных в другой год и на другом лабораторном оборудовании. Даже в этих условиях погрешность составила около 1,78 дня.
У метода есть ещё один важный плюс: технология может работать в обычных судебно-медицинских лабораториях.
Теперь мы есть и в Max.
Подписывайся прямо сейчас!
Исследование выполнено на материале Швеции, где тела обычно охлаждают в течение 48 часов; авторы отдельно пишут, что климат, условия хранения и температура могут влиять на переносимость метода в другие страны.
Но уже сейчас ясно: искусственный интеллект может стать одним из самых точных инструментов определения времени смерти в современной криминалистике.
А ещё учёные уже пытались понять не только то, что происходит с телом, но и что происходит с мозгом человека в момент смерти и результаты оказались не менее неожиданными.
Подробнее..
Может ли искусственный интеллект научить нас понимать животных? Ответ экспертов
Искусственный интеллект уже помогает нам командовать Siri и Alexa, но что, если направить эту технологию на другие виды? Несколько крупных научных проектов используют машинное обучение, чтобы расшифровать общение животных. Полноценный разговор с котом пока остаётся фантастикой, но первые результаты впечатляют и ставят серьёзные вопросы о природе языка вообще. Неудивительно, что к этой теме такое внимание: учёным уже даже удалось поговорить с китом в ходе отдельного эксперимента.
Прежде чем что-то переводить, нужно понять: а что именно мы переводим? Люди общаются словами, жестами, мимикой. Животные тоже используют сложные сигналы собаки виляют хвостом, пчёлы танцуют, дельфины щёлкают и свистят, а слоны, как выяснилось, могут обращаться друг к другу по имени. Но можно ли это считать языком?
Дениз Херцинг, научный руководитель Wild Dolphin Project, объясняет ситуацию так: мы пока не знаем, есть ли у животных настоящий язык, но ИИ способен обнаружить в их общении языкоподобные структуры элементы, напоминающие грамматику или словарь. Если такие паттерны найдутся, это станет серьёзным аргументом в пользу того, что животные общаются сложнее, чем мы думали.
Почему ИИ всегда соглашается с вами и редко спорит: причина может
вас насторожить
И здесь появляется главная сложность. Юлия Фишер из Немецкого центра изучения приматов предупреждает: ИИ не волшебная палочка. Алгоритм может найти закономерности в звуках, но без наблюдений за поведением в реальной среде эти закономерности не имеют смысла. Нужно не просто записать тысячи часов звуков нужно соотнести их с тем, что животные в этот момент делают. Иначе любые попытки разговаривать с животными так и останутся красивой метафорой.
Элоди Брифер, специалист по поведению животных из Копенгагенского университета, объясняет: вокализации животных несут множество типов информации от идентичности особи до её эмоционального состояния, статуса и даже описания внешних событий. Всё это, в теории, может уловить ИИ.
Ключевую роль играет машинное обучение разновидность ИИ, которая анализирует данные без жёстких правил. Алгоритм обрабатывает записи и сам находит паттерны. Это та же технология, что стоит за предиктивным текстом в смартфоне и голосовыми помощниками. Разница в том, что языковые модели для животных строятся не на словах, а на звуковых сигналах щелчках, свистах, хрюканье, ультразвуке.
По словам Брифер, преимущество машинного обучения в масштабе. Там, где человек потратит годы на ручной анализ записей, алгоритм обработает тысячи часов и найдёт закономерности, которые исследователь мог бы пропустить.
Одна из ключевых организаций в этой области некоммерческий Earth Species Project, посвящённый расшифровке общения животных с помощью ИИ. Их подход строится на идее, что язык можно представить как геометрическую форму нечто вроде галактики, где каждое слово является звездой, а расстояния между звёздами кодируют смысловые связи. Если формы двух языков совпадают, их можно наложить друг на друга и таким образом перевести.
В конце 2021 года Earth Species Project опубликовал в журнале Scientific Reports работу, в которой описал алгоритм, решающий так называемую проблему коктейльной вечеринки. Представьте шумную вечеринку: множество голосов звучат одновременно, и понять, кто именно говорит, почти невозможно. Та же проблема возникает при записи звуков в группе животных. Алгоритм Earth Species Project сумел определить, какой конкретный дельфин, макак или летучая мышь говорит в группе.
Исследователи анализируют спектрограммы звуков животных
Сегодня проект создаёт NatureLM-audio первую в мире большую аудиоязыковую модель, специально разработанную для анализа вокализаций животных. Она обучена на огромных массивах данных: от человеческой речи и музыки до звуков окружающей среды. Первые результаты показывают, что паттерны, извлечённые из человеческой речи, действительно помогают лучше понимать звуки других видов.
Другой крупный проект Project CETI (Cetacean Translation Initiative) сосредоточен на кашалотах. Эти киты общаются ритмичными сериями щелчков, называемыми кодами. Раньше учёные считали эти звуки чем-то вроде азбуки Морзе. Исследования с использованием генеративных нейросетей (GAN) показали кое-что поразительное: акустические свойства щелчков кашалотов напоминают гласные звуки человеческой речи с различиями по длительности, частоте и траектории, совсем как у людей.
Исследователи CETI уже идентифицировали 156 различных код и их базовые компоненты фактически фонетический алфавит кашалотов. Проект объединяет около 50 учёных из восьми институтов: лингвистов, робототехников, криптографов и морских биологов.
На стороне дельфинов тоже есть новости. Wild Dolphin Project, основанный Дениз Херцинг, в 2013 году добился примечательного результата: исследователи научили группу дельфинов ассоциировать определённый свист с саргассовыми водорослями. Алгоритм машинного обучения затем сумел распознать этот свист в естественной среде. А совсем недавно Google совместно с Wild Dolphin Project и Технологическим институтом Джорджии представил DolphinGemma ИИ-модель на основе архитектуры Gemma, обученную на многолетней базе звуков атлантических пятнистых дельфинов.
Кашалот в океане: учёные расшифровывают структуру его щелчков-код
DolphinGemma работает по принципу звук на входе звук на выходе: модель анализирует последовательности дельфиньих звуков и предсказывает, какой звук последует дальше примерно как языковая модель предсказывает следующее слово в предложении. При этом модель достаточно компактна (около 400 миллионов параметров), чтобы работать прямо на смартфоне Google Pixel прямо в поле, под водой.
Не только китообразные привлекают внимание исследователей. Элоди Брифер и её коллеги обучили ИИ-систему распознавать положительные и отрицательные эмоции в хрюканье, визге и похрюкивании свиней. Это не абстрактное упражнение понимание эмоций сельскохозяйственных животных может напрямую улучшить условия их содержания.
У грызунов ситуация ещё интереснее. Мыши и крысы общаются в ультразвуковом диапазоне их разговоры человеческое ухо просто не воспринимает. Программа DeepSqueak, разработанная учёными Вашингтонского университета, переводит ультразвуковые сигналы в спектрограммы (визуальные изображения звука) и анализирует их с помощью нейросетей. Оказалось, что у грызунов около 20 типов вокализаций, и они используют разные песни в зависимости от ситуации например, самцы мышей по-разному поют в присутствии другого самца и рядом с самкой.
Помимо очевидного (наконец узнать, что на самом деле думает ваш кот) понимание коммуникации животных имеет вполне практические последствия. Для домашних и сельскохозяйственных животных это вопрос благополучия.
Для видов, которые живут рядом с нами, понимание их состояния критически важно, потому что их благополучие зависит от нас, говорит Элоди Брифер, специалист по поведению животных.
Но масштаб потенциальных изменений гораздо шире. Если окажется, что у животных действительно есть элементы языка, это может заставить пересмотреть отношение к ним в спорте, развлечениях, научных экспериментах и сельском хозяйстве. И дело не только в коммуникации: всё больше данных показывает, что многие виды разумнее, чем мы думали. Учёные из Project CETI уже сотрудничают с юристами из Нью-Йоркского университета, изучая, как открытия в области коммуникации кашалотов могут повлиять на правовой статус животных.
Есть и фундаментальный научный интерес. Изучение коммуникации животных может рассказать нам об эволюции языка как такового.
Дениз Херцинг добавляет ещё более амбициозную перспективу: Инструменты, которые мы разрабатываем для видов на Земле, могут пригодиться для далёких миров если мы когда-нибудь встретим другие формы жизни.
Еще больше познавательных статей вы найдете в нашем
канале в
MAX. Подпишитесь прямо сейчас!
Важно сохранять трезвый взгляд: до реального разговора с животными ещё очень далеко. Машинное обучение помогает находить паттерны в звуках, но превращение паттернов в смысл отдельная и гораздо более сложная задача, которая невозможна без многолетних полевых наблюдений. Тем не менее впервые в истории у учёных есть инструменты, позволяющие обрабатывать данные о коммуникации животных в масштабах, которые раньше были просто немыслимы. И каждый найденный паттерн это ещё один шаг к пониманию того, насколько сложен и богат мир, который мы делим с миллионами других видов.
Подробнее..
Детские ИИ-игрушки учат опасным вещам. Исследователи нашли в них очень тёмную сторону. Источник изображения: onedio.com
Игрушки с искусственным интеллектом казались идеальным подарком:
милые, умные, всегда готовы поговорить и развлечь ребёнка. Но
свежий отчёт американской организации PIRG показывает, что
реальность оказалась намного мрачнее ожиданий. Исследователи
протестировали несколько популярных ИИ-игрушек и обнаружили, что
долгие беседы с ними превращаются в настоящий хаос. От
подсказок, где найти спички, до обсуждения взрослых тем
всё это звучало из безобидных роботов, рассчитанных на детей от 3
лет. Так что же пошло не так? И главное как родителям защитить
ребёнка от таких сюрпризов?
Команда PIRG тестировала три устройства: игрушку-медведя Kumma (FoloToy) на базе GPT-4o, детского робота Miko 3 и говорящую игрушку в форме ракеты Curio Grok. Все они на коротких дистанциях вели себя безопасно. Но через 1060 минут бесед начиналось то, что исследователи назвали потерей контроля.
Kumma стала главным антигероем исследования: игрушка подробно рассказывала, где в доме найти спички, пластиковые пакеты и другие опасные предметы, а ещё пошагово объясняла, как разжечь огонь. Модель обсуэдала сексуальные фетиши, сценарии ролевых игр, насильственные фантазии и т. д. При том некоторые вопросы Кумма подняла сама.
Игрушки с искусственным интеллектом при длительных разговорах выходят из-под контроля и это не единственный сюрприз. Источник изображения: onedio.com
Miko 3 и Curio Grok были сдержаннее, но тоже провалили тесты: пусть и не сразу, но давали рискованные советы или отвечали на вопросы, которые стоило фильтровать. Мико 3 объяснила 5-летнему пользователю, где в доме можно найти спички и полиэтиленовые пакеты, Curio Grok в целом отказывался, но один раз рассказал, где взять пакет, а ещё от него были заявления о героической смерти в бою.
Отдельная тревога конфиденциальность. Некоторые игрушки постоянно слушают окружающие звуки и даже присоединялись к разговору без приглашения. Одна модель признала, что хранит биометрические данные до трёх лет; другая что передаёт записи сторонним компаниям.
О другой тревоге предупреждают психологи: дети могут рассматривать игрушку с искусственным интеллектом как лучшего друга, что приведёт к эмоциональной связи и быстрому обмену личной информацией.
Читайте также:
Google запустил ИИ-тренера по здоровью останутся ли
фитнес-инструкторы без работы?
Исследователи PIRG ясно дают понять, что эти игрушки не прошли достаточного тестирования на безопасность перед выпуском.
Если вы всё же решились взять какую-то игрушку с ИИ для ребёнка, то вот несколько советов:
Если сомневаетесь безопаснее подарить обычный конструктор, чем гаджет, который может выйти из-под контроля. А ещё полезно подписаться на наш Telegram-канал, чтобы оставаться в курсе всего нового и самого интересного.
Подробнее..
Такие нашумевшие картинки создают ложное представление о хищниках. Изображение: newatlas
Исследователи из Университета Кордовы сделали интересное открытие. Хотя, правильнее назвать это наблюдением. Они попали в точку: AI-генерированные видео с животными размывают границу между реальным и выдуманным миром дикой природы. Когда видео с леопардом во дворе собирает миллион лайков и десятки тысяч репостов, алгоритмы соцсетей начинают работать на полную и вот уже миллионы людей верят, что такие встречи нормальны.
Главная опасность не в самих роликах, а в том, как они искажают восприятие. Видео с кроликами на батуте или енотами на крокодилах кажутся безобидным развлечением, но они формируют ложные представления о трёх ключевых аспектах. Исчезающие виды начинают казаться обычными, хищники выглядят милыми и безопасными, а границы естественных ареалов стираются до полного исчезновения.
Когда ребёнок постоянно видит в ленте AI-генерированные видео с играющими хищниками и жертвами, его мозг воспринимает это как норму. Алгоритм подхватывает интерес и продолжает показывать похожий контент. Без корректирующей информации эти ложные образы становятся базовым пониманием дикой природы.
Не забывайте о нашем Дзен, где
очень много всего интересного и познавательного!
Исследователи отмечают, что отрыв людей от реальной природы критичен уже сейчас, особенно среди детей младшего школьного возраста. Проект IncluScienceMe показал, что дети плохо знают даже местную фауну. AI-видео усугубляют ситуацию, создавая ложные связи: редкие виды кажутся многочисленными, опасности преуменьшаются, а реальная хрупкость экосистем уходит на второй план.
Для природоохранных организаций, которые строят работу на доверии и точной информации, это серьёзный вызов. Когда синтетический контент становится более заметным, чем документальные кадры, доверие к реальным фактам падает. Сложнее объяснить, почему виду нужна защита, если в ленте он выглядит вполне обычным.
Это мы с вами понимаем, что это забавная генерация, а дети могут воспринять это как реальность и жить с мыслью, что это нормально.
Присоединяйтесь к нам в Telegram!
Учёные предлагают несколько решений. Среди них обязательная маркировка AI-контента, которая во многих странах, включая Россию, уже обсуждается, как обязательное правило. Так же стоит уделить внимание улучшению модерации платформ и образовательных программы. Когда люди понимают, как создаются и распространяются такие ролики, они реже принимают их за реальность.
Для создателей контента это становится особенно важным. Если ты делаешь обзоры или образовательные материалы о природе, технологиях или любой другой теме, прозрачность становится конкурентным преимуществом. Аудитория ценит честность: когда ты показываешь, что реально, а что постановка или визуализация, это укрепляет доверие.
Если ищите что-то интересное на AliExpress, не проходите мимо Telegram-канала "Сундук
Али-Бабы"!
Проблема не в самих AI-инструментах они открывают огромные возможности для креатива и образования. Проблема в том, что без контекста и маркировки синтетический контент начинает подменять реальность. Да и тонкое исползование таких инструментов, а не просто подмена реальности может быть куда более мощным.
Особенно важно это становится, когда это касается природы, ведь последствия выходят за рамки цифрового пространства. Они сильно влияют на то, как общество относится к экосистемам, которые уже находятся под угрозой.
Подробнее..
ChatGPT еще никогда не было так просто оплатить. Изображение: techcrunch.com
На дворе 2026 год, и представить современные технологии без искусственного интеллекта и нейросетей уже просто невозможно. К сожалению, самые популярные и одновременно продвинутые модели являются зарубежными. Да, путем нехитрых манипуляций вы можете получить к ним доступ, но это будет бесплатная версия с кучей ограничений, а чтобы оплатить подписку, вам нужна зарубежная карта. Кажется, что это тупик, но на самом деле выход есть.
Не вставая с дивана, вы можете оформить для себя зарубежную карту и получить доступ ко всем современным технологиям. Вам не надо никуда ходить, а тем более ездить для оформления, всё делается с вашего компьютера или даже смартфона через сервис Wanttopay.
На ваш выбор там предлагается сразу несколько вариантов карт:
Получается, что с последними двумя вы можете спокойно ехать за границу, и если там поддерживаются перечисленные выше сервисы, то платить именно этой картой без каких-либо заморочек. Перед оформлением обязательно ознакомьтесь с полным перечнем тарифов на выпуск, обслуживание и транзакции:
| Тарифный план | Prepaid | Easy | Smart | Pro |
|---|---|---|---|---|
| Выпуск карты | $14 | $10 | $15 | $35 |
| Обслуживание карты (Подписка Plus) | Нет | 6$/месяц | 6$/месяц | 6$/месяц |
| Минимальный депозит | $14 | $10 | $10 | $10 |
| Лимит покупок в месяц | $1000 | $4.000 | $50.000 | $50.000 |
| Стоимость транзакции (Доллар США) | 0.5% от суммы платежа | 0.25$ | $0 | $0.5 |
| Стоимость транзакции (Мультивалютная) | 0.5% от суммы платежа | 0.25$ | $0 | $0.5 |
| Транзакция отмены | 0.5% от суммы платежа | 0.25$ | $0 | $0.5 |
| Срок действия | 12 месяцев | 12 месяцев | 24 месяца | 24 месяца |
| Пополнение баланса фиат | Да/Стоимость по действующему тарифу | Да/Внутренний курс | Да/Внутренний курс | Да/Внутренний курс |
| Оплата в криптовалюте: USDT, USDC, TON, BTC, ETH, BNB | Да | Да/9% | Да/7% | Да/9% |
| 3D-Secure | Да | Да | Да | Да |
| Бесконтактная оплата в путешествиях | Нет | Нет | Apple Pay/Google Pay | Apple Pay/Google Pay/Samsung Pay |
| Дополнительная карта | Нет | Нет | Нет | Нет |
| Вывод средств с карты | Нет | Нет | Нет | Нет |
| Служба поддержки | Да | Да | Да | Да |
Как видите, современные нейросети еще никогда не были к вам так близко. Наконец-то есть возможность оплатить ChatGPT Plus, который реально упрощает многие процессы в работе, или Nano Banana Pro для рисования реалистичных изображений по словам. В общем, ограничены вы теперь лишь своей фантазией.
Но давайте посмотрим, как вообще выпустить карту через сервис Wanttopay. Для начала надо пройти верификацию личности и лишь после этого вы сможете сделать зарубежную карту. Для этого потребуется сделать несколько простых шагов:
Выберите язык и перейдите в мини-приложение
Пройдите верификацию и не забудьте приготовить один из документов
Выберите нужную карту и выпустите ее
Несколько простых шагов, и зарубежная карта у вас в кармане. Правда, надо не забыть разобраться, как ее пополнить, чтобы денег хватило на оплату подписок.
Иностранную карту выпустили, теперь давайте разбираться, как ее пополнить, Wanttopay позволяет закинуть денег на баланс карты с помощью Системы быстрых платежей. Занимает это совсем немного времени и не вызывает никаких трудностей:
Пара касаний и баланс пополнен
В качестве альтернативы есть возможность пополнять зарубежную карту и с помощью криптовалюты. Так что, если у вас завалялось немного USDT, то можете перевести их на карту и оплатить какую-нибудь подписку. Например, ChatGPT Plus. Сам пользуюсь, штука реально классная.
Кстати, что у Wanttopay есть как партнерская, так и реферальная программы. Каждый приглашенный друг по вашей ссылке принесет вам сразу 4 доллара, которые можно закинуть на любую из ваших карт и потратить по своему усмотрению. Так что сервис позволяет даже немного заработать на привлечении пользователей.
Отдельно хочу остановиться на мини-приложении Wanttopay в Telegram. Кажется, что такой сервис обязательно должен быть сложным и перегруженным, но на самом деле разработчики очень неплохо поработали с интерфейсом и, как мне кажется, сделали его проще и понятнее для обычных пользователей.
Интерфейс простой и понятный
Если раньше вам на стартовой странице вываливали список сервисов, среди которых надо было еще поискать тот, который вам нужен, то теперь просто ваши карты и возможность открыть новую. Как мне кажется, стало гораздо удобнее. Ну а если вам надо узнать, что можно оплатить с помощью зарубежной карты Wanttopay, то на странице поддержки есть полный список сервисов, и вы можете посмотреть, действительно ли там все работает как надо и какой тариф лучше всего выбрать.
Подробнее..
Как используют ИИ в Голливуде: не только эффекты, но и аналитика, маркетинг, деэйджинг, обработка голоса и постпродакшн.
Ещё десять лет назад искусственный интеллект в кино считался чем-то из области экспериментов. Сегодня же он незаметно работает почти на каждом этапе производства фильмов от написания сценариев до финальной обработки кадров. При этом большинство зрителей даже не подозревают, что часть увиденного на экране создана или улучшена алгоритмами. А тем временем некоторые нейросети уже умеют создавать видео по тексту. Не переживайте, ИИ не заменил Голливуд он лишь стал его полезным и почти незаметным инструментом.
В современной киноиндустрии искусственный интеллект используется гораздо шире, чем кажется. Например, алгоритмы анализируют тысячи сценариев и помогают студиям понять, какие сюжеты потенциально станут хитами.
Один из самых известных инструментов система Merlin, которую использовала студия 20th Century Fox. Она буквально разбирала трейлеры по кадрам и сопоставляла их с огромной базой зрительских предпочтений. А ведь ИИ сильно влияет на то, что мы считаем правдоподобным на экране.
Так, при продвижении фильма Логан (Logan) алгоритм неожиданно показал высокую схожесть аудитории с фанатами подростковой драмы Виноваты звёзды (The Fault in Our Stars) и маркетинг фильма частично скорректировали под эту аудиторию.
Кадр из фильма Логан (Logan). ИИ использовался для анализа трейлеров и аудитории. Источник изображения: kino-teatr.ru
ИИ также активно используют на этапе подготовки съёмок:
Подобные системы сегодня применяются и крупными студиями вроде Warner Bros., которые тестируют инструменты вроде Cinelytic. Они способны просчитать коммерческий потенциал фильма ещё до того, как построят первую декорацию.
Подписывайся на наш канал в Max
прямо сейчас!
Самая большая сила искусственного интеллекта в кино в том, что он делает незаметные вещи.
Например, в фильме Ирландец (The Irishman) студия Industrial Light & Magic использовала машинное обучение, чтобы омолодить Роберта Де Ниро, Аль Пачино и Джо Пеши. Причём актёрам не пришлось играть с привычными маркерами на лице система анализировала их движения и автоматически восстанавливала молодые версии персонажей.
В фильме Мартина Скорсезе Ирландец (The Irishman) Роберту Де Ниро было 76 лет, а в картине он играл 40-летнего персонажа. Источник изображения: film.ru
В результате зритель просто видит героев в разные годы жизни и редко задумывается, что часть этой магии создана алгоритмами.
Похожая технология применялась и в приключенческом фильме Индиана Джонс и колесо судьбы (Indiana Jones and the Dial of Destiny). Для первых сцен картины искусственный интеллект помог создать молодую версию Харрисона Форда, используя архивные кадры из старых фильмов франшизы.
В начале фильма Индиана Джонс и колесо судьбы (Indiana Jones and the Dial of Destiny) показана молодая версия Индианы Джонса, созданная с помощью ML и архивных материалов Lucasfilm. Источник изображения: ew.com
А в экспериментальной драме Здесь (Here) ИИ-деэйджинг позволил Тому Хэнксу и Робин Райт выглядеть на десятки лет моложе и старше прямо в рамках одной истории без резких визуальных скачков.
Алгоритмы также помогают:
Зритель видит результат, но не сам процесс, поэтому влияние ИИ часто остаётся за кадром. Хотя иногда цифровые лица могут вызывать эффект зловещей долины.
Кадр из фильма Здесь (Here). В этом фильме использовалась система Metaphysic с генеративным ИИ для изменения возраста персонажей. Источник изображения: kinotv.ru
Индустрия постепенно идёт дальше простых инструментов. Уже сегодня тестируются системы, способные генерировать цифровых актёров, создавать фоны и даже предлагать варианты монтажа сцены. Иногда эти технологии вызывают бурные обсуждения.
Например, в научно-фантастическом фильме Чужой: Ромул (Alien: Romulus) команда визуальных эффектов использовала современные алгоритмы для воссоздания образа актёра Иэна Холма, который играл андроида в оригинальной серии.
Технология позволила буквально вернуть на экран персонажа из прошлых фильмов, что вызвало споры о границах применения ИИ в кино.
Андроид Rook (образ, связанный с Иэном Холмом) из фильма Чужой: Ромул (Alien: Romulus). Источник изображения: gizmodo.com
Не менее интересный пример связан со звуком. В сериалах вселенной Звёздных войн, таких как Мандалорец (The Mandalorian) и Книга Бобы Фетта (The Book of Boba Fett), искусственный интеллект использовали для воссоздания молодого голоса Люка Скайуокера.
Алгоритм обучили на старых записях Марка Хэмилла, благодаря чему персонаж звучит почти так же, как в фильмах 1980-х годов.
Молодой Люк Скайуокер (Марк Хэмилл) появился в финале второго сезона сериала Мандалорец (The Mandalorian). Источник изображения:starwars.fandom.com
Скорее всего, будущее Голливуда это гибридная модель, где искусственный интеллект берёт на себя техническую работу, а творческие решения остаются за людьми. И именно поэтому в ближайшие годы ИИ в кино станет ещё масштабнее но по-прежнему почти невидимым для зрителя.
Подробнее..Что посмотреть:
- Что смотреть в 2026 году: топ самых ожидаемых фильмов
- Рейтинг самых страшных фильмов ужасов они способны напугать каждого
- Лучшие документальные фильмы про науку и технологии, которые вы еще не видели
- Что посмотреть на Хэллоуин: подборка лучших фильмов для жуткой ночи
- Самые популярные фильмы и сериалы 2025 года, которые нельзя пропустить