Малоизвестное интересное


Гео и язык канала: Россия, Русский
Категория: Познавательное


Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031
Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs

Зарегистрирован в РКН
Связанные каналы  |  Похожие каналы

Гео и язык канала
Россия, Русский
Статистика
Фильтр публикаций


От безлекарственного подавления рака до понимания инопланетян
Поборов «слепоту разума», можно видеть и строить мир, где формы разума сосуществуют и помогают друг другу
Понимание, что разум может «жить» в химии, тканях, клетках и алгоритмах, меняет наше место в мире и даёт новые инструменты созидания. Мы могли бы «уговаривать» раковые клетки прекратить их экспансию.
Парадигмальная революция в понимании разума, ознаменованная публикацией «апрельских тезисов» Майкла Левина, продолжается.
Новый доклад Левина «Против слепоты разума: распознавание и общение с многообразием разума» — настоящий взрыв мозга! Он заставляет задуматься о фундаментальном вопросе:
как нам научиться «разговаривать» с невероятным многообразием разума.

Цель доклада двуедина
1. Показать, что звучащая сюжетами из будущего аргументация в пользу новой парадигмы разума, вовсе не фантазия и не “просто теория”, а реальность, обещающая революцию в медицине, создание живых микроботов и переосмысление нашего места во Вселенной.
Ибо уже экспериментально продемонстрировано:
— клетки могут «договариваться» между собой;
— их можно «убедить» например, создать глаз на хвосте головастика или «убедить» «антроботов» (сборки из клеток человека) заживлять раны нейронов;
— биоэлектрические сигналы могут «перепрограммировать» ткани;
— и даже раковые клетки можно «убедить» вернуться в коллектив к «здоровой жизни» без лекарств и химиотерапии, использовав их «электрический язык».

2. Продемонстрировать непомерно высокую цену, которую человечество платит за “слепоту разума”, не позволяющую видеть колоссальные перспективы кардинальной смены научной парадигмы в пользу признания многообразия разума.
Ибо это может позволить:
— научиться «разговаривать» с отдельными клетками и их коллективами;
— поняв наконец, что ДНК — лишь «алфавит», а настоящий «роман» пишется коллективным разумом тела, научиться читать индивидуальные «романы» каждого из людей;
— увидев и поняв другие формы разума, существующие вокруг нас и даже внутри нас, кардинально поменять представления о разумном мироздании.

Увы, но каждый из нас может быть интеллектуально слеп по каким-то вопросам. И вследствие этого, просто не воспринимать аргументы и логику, противоречащие нашим предубеждениям. Источником такой “интеллектуальной слепоты” является феномен мотивированного рассуждения, зафиксированного в сотнях научных экспериментов и ныне являющегося ключом к анализу нейропсихологических причин устойчивого существования непробиваемых ложных суждений. Такая непробиваемость и повсеместность феномена мотивированного рассуждения обусловлены тем, что это продукт эволюции. В результате чего каждый из нас расплачивается за свои мотивированные рассуждения обидными, но крайне трудно преодолимыми самообманами, живущими в нашем разуме в привязке к уже существовавшим привычным мыслям (подробней см. мой лонгрид «Интеллектуальная слепота»).

Но оказывается, бывают вещи и похуже индивидуальной интеллектуальной слепоты. Подобного рода “слепотой разума” страдают не только индивиды, но и все человечество. Причем объектом слепоты разума является сам разум.

Истоки слепоты разума также эволюционные. Эволюция «настроила» нас распознавать лишь знакомые нам разумы — тех, кто похож на людей или хотя бы на собак, птиц, осьминогов. Всё, что мыслит вне привычных масштабов и форм, — от колоний клеток до роботов — мы склонны игнорировать. Это и есть слепота разума — самый фундаментальный самообман бесконечно дорого обходящийся человечеству.

Хотите глубже?
✔️ Смотрите 36-минутный видео-доклад с презентацией Майкла Левина.
✔️ Понимание доклада требует подготовки. Поэтому для подписчиков моих лонгридов я написал структурированное резюме доклада с пояснениями сложных моментов ИИ-мнемозиной информария Левина [1, 2, 3, 4].

И приготовьтесь: после знакомства с этими материалами, привычная граница между организмом, машиной и «просто материей» тает — и взгляд на разум перезагружается.

#ParadigmsofIntelligence #DiverseIntelligence #НетрадиционныеРазумы #ИнойИнтеллект #МирХимер


В этом году китайские LLM сравняются с американскими… Но это Китаю не поможет.
США задавят Китай 10-тикратной превосходством своего HW,
преобразовав его в ИИ-работников.
От того, кто из двоих лидеров – США или Китай, - выиграет важнейшую мировую гонку 21 века за первенство в области ИИ, во многом зависит, будет ли мир 2030-х и далее скроен по американскому или по китайскому образцу.

Пока в лидерах гонки однозначно были США. Но к концу 2024 Китай доказал, что способен разрабатывать свои большие языковые модели, приближаясь к уровню лучших образцов США.

По сути, вопросом 2025 года стал вопрос – сумеет ли теперь Китай догнать (а значит сможет и перегнать) все самые крутые американские модели по всем ключевым характеристикам?

Только законченное интереснейшее аналитическое исследование лаборатории «AI and Compute» Центра политики технологий и безопасности корпорации RAND под руководством проф. Леннарта Хайма дало интригующий ответ на этот вопрос:

1. Да, в 2025 Китай догонит США по всем ключевым параметрам моделей.
2. Но это не позволит Китаю сравняться по вычислительной (а значит и по интеллектуальной) мощи с США. Ибо Китай отстает по вычислительной мощи примерно в 10 раз. И потому, даже догнав США по уровню моделей, общий разрыв все равно будет в 10 раз.
3. Более того. В 2026 ключевую роль ИИ-систем в экономике, науке и военном деле будут играть уже не разговорные LLM (ИИ-чатботы), а ИИ-агенты. Каждый такой ИИ-аген будет выполнять работу, как минимум, одного, а чаще десятков высококлассных специалистов.
Что при 10-кратном превосходстве вычислительной мощности станет равносильным 10-100-кратным превосходством в прибавке «интеллектуальной рабочей силы» в экономике, научных исследованиях и военном деле.

Т.е. формула «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке», в итоге, решит итог гонки за мировую гегемонию в ИИ (и не только).

#ИИгонка #Китай #США


Третья сверхдержава
Глобальные убытки от киберпреступлений по оценке Cybersecurity Ventures на 2024 год достигли $10+ трлн в год. Мировая «экономика» киберкриминала стала условно «третьей экономикой» мира после США и Китая, превышая суммарный ВВП Германии и Японии, равно как и весь мировой рынок IT. Это не прибыль, а ущерб, но масштаб сравнимый. Мы имеем дело не с маргинальной угрозой, а с глобальной «кибердержавой» — крупнейшим нелегальным бизнесом планеты, в разы превышающим теневые рынки наркоторговли и оружия, и впятеро превосходя сумму военных бюджетов всех стран мира. Ушло время, когда киберриски «парковали» где то в IT отделах. Теперь их масштабы сопоставимы с крупнейшими национальными экономиками и мировыми индустриями планеты.

С фиксации этого поразительного факта начинается нон фикшн триллер Владаса Леонаса о прошлом, настоящем и будущем цифровой безопасности «Cyber Insecurity: Examining the Past, Defining the Future».

Задумайтесь над этим, чтобы навести фокус ваших оценок:
• что в сегодняшнем мире лишь хайп (хотя, возможно, и с большим будущим),
• а что реально важно: не когда-то и не возможно, а совершенно точно и уже сейчас.

И в этом смысле книга моего давнего доброго коллеги и профессионального единомышленника Владаса Леонаса — не очередной хайпосборник маркетинговых мемов, а попытка вскрыть один из самых опасных нарывов цифровой цивилизации, пока он еще не превратился в гангрену.

О чём книга
1) История. От ARPANET до «червя» Creeper: Автор показывает — первые хакерские атаки появились вместе с первыми сетями, а логика противостояния мало изменилась за полвека.
2) Практика управления. Автор подробно разбирает, почему Agile команды теряют бюджет безопасности и как CISO может встроить риск метрики в backlog без ломки процессов.
3) Облака. К 2025  99% сбоев в облачной защите будут вызваны ошибками клиентов. Классическая схема shared responsibility часто читается «по диагонали», а цена этого миллионы долларов.
4) Будущее. 2025 й станет «годом отрезвления»: массовой окупаемости «волшебных алгоритмов» ждать не стоит, и компаниям придётся научиться измерять их реальную эффективность.

Что делает книгу особенной
1. Гибрид жанров. Мемуары инженера + исторический атлас кибервойн + справочник CISO. Лёгкий переход от нарратива к чек листам: можно читать подряд или выборочно
2. Честность без пиара. Автор не продаёт технологии, а анализирует. Он цитирует Gartner и Forrester, но так же охотно разбирает их промахи (например, миф «облако всегда дешевле»).
3. Смелые прогнозы с оговорками. Каждый вывод сопровождается ссылкой на первоисточник и допущениями. Это позволяет читателю самому оценить риски и степень уверенности.

Кому будет полезно
CEO и члены советов увидят, как киберинцидент обрушил рыночную капитализацию компании на 12 % за два дня — убедительный повод поставить KPI по кибербезопасности рядом с финансовыми метриками.
CISO и руководители ИТ найдут подробный разбор ловушек: от переоценки SOC инцидентов до конфликтов зон ответственности с CSP.
Студенты и энтузиасты поймут эволюцию угроз через конкретные истории вроде атаки на Colonial Pipeline.
Юристы и специалисты по комплаенсу получат компактный гид от CFAA до GDPR и свежих регуляторных инициатив 2024 года.

Почему стоит читать сейчас
Книги о кибербезопасности обычно устаревают к выходу из типографии. Владас Леонас успевает зафиксировать самый острый срез: от Stuxnet до экспериментов правительства Австралии с Microsoft Copilot. И он не продаёт «серебряные пули»; он вооружает читателя критическим мышлением. А с ним угрозы выглядят управляемыми, а инвестиции — оправданными.

И прежде чем подписывать новый SLA или урезать бюджет безопасности, поставьте «Cyber Insecurity» первой строкой в wish list. Отложить эту книгу «на потом» — уже риск, который нельзя игнорировать. Ведь в мире, где ChatGPT генерирует фишинг за секунды, а квантовые компьютеры вот-вот взломают RSA, откладывать её чтение — всё равно что игнорировать пожарную сигнализацию.

#БББ #Кибербезопасность


ИИ – лишь мост к многообразию разума
Уже в 2030-е земная цивилизация станет постчеловеческой

Ноосфера будет создаваться не только людьми, но и новыми типами разумных существ — биороботами, киборгами, химерами, гибротами, биосинтетиками и еще пока не известными нам нетрадиционными формами разума с более сложными когнитивными способностями, чем у людей. А основой культуры на планете станет культура синтбиоза - совместная эволюция многообразия разумных видов.

Комментируя осенью 2024 материализацию своего прогнозного сценария 2021 года о превращении привычного нам мира в «мир химер», я написал пост, озаглавленный так -
«Нежить и нелюди уже среди нас… как и было сказано. Два класса химер совершенствуются, третий - появится лет через 10».
Этими тремя классами были биохимеры (гибриды тела и чужих органов), инфохимеры (гибриды мозга и чужого разума) и материализованные дигитанты» (гибриды “души” и чужих чувств).

А к лету 2025 эта тема уже вошла в официальный научный дискурс. Опубликованная в конце апреля в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» стала своего рода «апрельскими тезисами» начинающейся парадигмальной революции - кардинального переосмысления нашего понимания, что такое интеллект, разум и жизнь.

Следующим событием в этом ряду станет проходящая в июне 1-я Международная онлайн-конференция журнала Philosophies «Разумное исследование разума», на которой тема переосмысления понимания разума будет одной из центральных. Звёздный состав спикеров конференции (Стивен Вольфрам, Эндрю Адамацкий, Майкл Левин и др) и тематика их докладов (вычислительные основы разума, возникновение разумного поведения далеко за пределами животного мира, распознавание и общение с нетрадиционным разумом и др), 100%-но вписывающаяся в новую парадигму интеллекта «Проекта Pi» от Google, подтверждают сказанное мною в предыдущем постеначинается колоссальный парадигмальный сдвиг. Назначение этой парадигмальной революции – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества. Конференция пройдет 10-14 июня. Регистрация для участия бесплатная.

Но вернемся к «апрельским тезисам» Майкла Левина. Эта его работа существует в трех вариантах:
1. рецензированная академическая версия
2. развернутая авторская версия в формате эссе
3. сокращенный вариант эссе, отредактированный для широкой аудитории
Какой из вариантов читать - выбор за вами.
Я бы рекомендовал начать с 3-го варианта. Для предпочитающих слушать я подготовил русскую озвучку полного текста варианта №3 (36-мин). А кому нужна английская озвучка, она есть здесь (32-мин).

Однако, для понимания даже облегченного варианта №3 желательно иметь хотя бы минимальное представление о двух базовых концепциях Левина: Technological Approach to Mind Everywhere (TAME) и Diverse Intelligence (DI). Их описание в моем информарии «ИИ: мост к разнообразию разума» рассредоточено по 23-х статьям Левина и 150 слайдам 5-и его презентаций – докладов.

Описание трактовки Левиным трех основных понятий базовых концепций TAME и DI (жизнь, интеллект, разум), ужатое до одной страницы текста, желающие, в качестве прокачки мозгов, могут прочесть здесь. Понимание трактовки Левиным этих трёх понятий наводит на резкость взгляд через призму TAME и DI на роль ИИ, как моста к многообразию разума и будущему человечества.

Ну а для подписчиков моих лонгридов, совместно с ИИ-Мнемозиной, был написан (и как теперь положено, озвучен ИИ) текст, конкретизирующий одну из ключевых мыслей «апрельских тезисов» Левина о том, как многообразие разума изменит земную цивилизацию (ссылки на лонгрид на разных платформах: 1, 2, 3, 4).

Подписчикам двух высших уровней предоставляется доступ к информарию «Искусственный интеллект: Мост к разнообразию разума», где они могут в диалоге с ИИ-Мнемозиной получать ответы на любые вопросы по этой теме на основе собранных в информарии работ Майкла Левина.

#МирХимер #Химеры

17k 6 382 224

Начался парадигмальный сдвиг, превосходящий революционностью все предыдущие
Его суть:
1. кардинальное переосмысление нашего понимания, что такое интеллект, разум и жизнь;
2. отказ от бинарного разделения "естественного" и "искусственного" в пользу понимания непрерывности между материей и разумом;
3. уход от представлений, что живые существа принципиально отличаются от машин;
4. переход к пониманию интеллекта, как континуума, проявляющегося в самых разнообразных сущностях (биологических и иных);
5. признание того, что полноценное развитие человечества невозможно без осознания спектра возможных форм разума, и что сегодняшние споры об AGI и ASI касаются универсальных экзистенциальных вопросов, стоящих перед всеми биологическими существами.


Опубликованная перед праздниками в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» – своего рода «апрельские тезисы» начинающейся революции. Предвосхищая ее начало, я написал в начале февраля в посте о предыдущей работе Левина: «Мы на пороге парадигмального переворота, своей революционностью превосходящего все предыдущие».

И вот спустя три месяца «апрельские тезисы» Левина открыто провозглашают с трибуны солидного научного журнала, что этот парадигмальный переворот начался. И, следовательно, уже можно открывать карты «Проекта Pi» и Google может вынимать пятый туз из своего рукава (см. триптих моих лонгридов [1, 2, 3]) и открыто объявлять о проекте, вот уже 2 года готовящем слом мейнстримной парадигмы интеллекта.

Так Google и сделал, начав в апреле официально выводить «Проект Pi» на высший научный уровень в корпорации. Для этого была опубликована статья, соавторами которой стали руководитель «Проекта Pi» Блез Агуэра-и-Аркас (вице-президент и ведущий научный сотрудник Google Technology & Society) и Джеймс Маниика — старший вице-президент Google-Alphabet и президент по исследованиям, лабораториям, технологиям и обществу в Google, а также почетный член Института ИИ при Стэнфордском университете и почетный научный сотрудник и приглашенный профессор Оксфорда.

Эта статья, как бы предваряя публикацию работы Левина, описывает начавшийся парадигмальный переворот в понимании интеллекта, разума и жизни, вписывая его в последовательность пяти взаимосвязанных сдвигов парадигмы эволюционирующего интеллекта, представляющего собой социальный фрактал.

Вот эти 5 взаимосвязанных сдвигов парадигмы интеллекта: Естественные вычисления, Нейронные вычисления, Предиктивный интеллект, Общий интеллект и Коллективный интеллект.

Авторы пишут, что смена парадигм часто сопряжена с трудностями, поскольку легче принять новые идеи, когда они совместимы с существующим мировоззрением, но сложнее, когда они несовместимы. Классическим примером является крах геоцентрической парадигмы, которая доминировала в космологической мысли примерно два тысячелетия. В геоцентрической модели Земля стояла на месте, в то время как Солнце, Луна, планеты и звезды вращались вокруг нас. Вера в то, что мы находимся в центре Вселенной, подкрепленная теорией эпициклов Птолемея, крупным научным достижением своего времени, была как интуитивной, так и совместимой с религиозными традициями. Следовательно, гелиоцентрическая парадигма Коперника была не просто научным достижением, но и горячо оспариваемой ересью и, возможно, даже, для некоторых, как отмечает Бенджамин Браттон, экзистенциальной травмой .

Так же происходит и сегодня с начавшимся парадигмальным сдвигом в понимании феномена интеллект.

Советую обязательно прочесть этот «меморандум о 5-ти парадигмальных сдвигах», ну или хотя бы прослушать этот 7-минутный подкаст.

Меморандум подготовит вас к обсуждению «апрельских тезисов» Левина (в следующем посте) о парадигмальной революции, назначение которой – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества.

#ParadigmsofIntelligence #DiverseIntelligence


Новый сверхэффективный способ извлечения знаний
На длинных выходных создайте себе сомыслителя – всезнающего проводника в ваших исследовательских путешествиях
Одной из самых недооценённых возможностей использования ИИ является его использование в роли сомыслителя, превращающего чтение обширных текстов из линейного процесса в многоступенчатое исследовательское путешествие, где ИИ уже не просто «говорящая книга», а своего рода «ИИ-мнемозина» — интеллектуальный интерфейс извлечения знаний из вашего информария, ускоряющий:
• ориентацию и навигацию по обширному корпусу текстов
• глубинный анализ извлекаемых из текстов смыслов
• синтез идей и гипотез на основе анализа
• их критическую проверку
Наличие ИИ-мнемозины выводит освоение содержимого больших текстов на уровень, недостижимый обычным чтением, и создаёт основу для непрерывного расширения знаний по мере пополнения корпуса текстов новыми материалами.

Архитектурные идеи создания подобных интеллектуальных интерфейсов со сквозной «дорожной картой» пользовательского опыта и набором приёмов, превращающих информарий в интеллект конструктор, находятся лишь в проработке.

И предлагаемая вашему вниманию ”песочница” информария альманаха «Линзы будущего» — лишь пример такого рода учебно-экспериментальной среды. Этот прототип интеллект конструктора ориентирован на:
глубокое погружение в эссе альманаха
глубокое бурение его смысловых пластов
майнинг идей, гипотез, неявных и альтернативных смыслов, ассоциаций и противоречий
структурирование извлеченных знаний

«Линзы будущего» — это экспериментальный альманах, цель которого интегрировать философию, науку и IT технологии для выработки целостного понимания значительных глобальных изменений и возрастающей непредсказуемости в мире. Учитывая беспрецедентный характер этих изменений, альманах опирается на аргументированные эвристические гипотезы для объяснения их причин и механизмов, а также для оценки потенциальных краткосрочных сценариев.
подробней об альманахе

О ”песочнице” информария
Уникальность ”песочницы” в том, что эссе можно не просто читать, но и осуществлять их интеллектуальный анализ в диалоге с «ИИ-мнемозиной» - всеведущей хранительницей текстов и смыслов информария:
• задавать любые вопросы по источникам и их комбинациям;
• анализировать, оценивать и критически переосмысливать идем и гипотезы альманаха;
• генерировать интеллектуальные карты, позволяющие сочетать навигацию в пространстве смыслов информария;
o с глубоким бурением на несколько этажей вглубь каждого из смысловых пластов;
o с майнингом неявных ассоциативных и содержательных связей и иерархий идей, гипотез и прогнозов, раскиданных по различным эссе и, на первый взгляд, казалось бы, никак не связанных;
• устраивать интеллектуальный пинг-понг и вдумчивые дискуссии с ИИ-мнемозиной;
• организовывать дискуссии ИИ-аватаров, обсуждающих самостоятельно или с участием пользователя интересующие его аспекты по материалам источников информария.


Ключевая архитектурная идея информария — «Семантический планетарий»
Информарий динамически строит многослойные ментальные экосистемы, где каждый смысловой элемент — «звезда» в планетарии знаний. Пользователь «летает» между слоями, а «ИИ мнемозина» выступает навигатором и куратором.
Возможны 7 градаций погружения в ментальные экосистемы информария. Это своего рода 7 линз, позволяющих увидеть скрытые закономерности и связи, а также оценить их силу:
1. Панорамная линза — Быстро ухватить ландшафт тем
2. Линза сканирования — Найти зоны интереса
3. Динамические линзы — Смотреть под разными углами
4. Слоистое бурение — Идти глубже, не теряя контекст
5. Ассоциативный сплав — Соединять далёкие идеи
6. Кузница гипотез — Формировать новые выводы и гипотезы
7. Институализация — Конвертировать знания во внешние артефакты
Подробней о «песочнице»

Аудио-аннотации альманаха:
• 2 диалога — обсуждений альманаха: 6 мин и 22 мин (англ)
• 2 рассказа об альманахе: 7 мин и 30 мин

Желающие погрузиться глубже в альманах и поэкспериментировать с “песочницей” его информария,
см. уровни доступа

#Информарий #ЛинзыБудущего


ИИ разделил человечество на 3 «подвида»: развитые, развивающиеся и китайцы
Поразительные результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было опрошено 48 340 человек в 47 странах.
Прекрасно оформленную графику 115-страничного отчета исследования стоит просмотреть всем.
Я же здесь открытым текстом напишу 2 вывода исследования, о которых авторы написали лишь между строк из-за ограничений политкорректности.

1. Человечество разделилось по отношению к ИИ на 2 группы:
A. тех, кто в своем большинстве активно и умело используют, доверяют и позитивно относятся к ИИ, глядя на перспективы развития ИИ с оптимизмом;
B. тех, кто в своем большинстве мало и неумело используют, не сильно доверяют и довольно негативно относятся к ИИ, глядя на перспективы развития ИИ с опасение и тревогой;

А – это развивающиеся страны типа Нигерии, Индии, Эмиратов, Южной Африки и т.п.
В – это развитые страны типа западноевропейский стран, Австралии, США и Японии

2. Однако есть еще и третья группа – это Китай:
A. По часть активного и умелого использования, доверия и позитивного отношения, характеризуемого доминированием позитивных взглядов на перспективы развития ИИ, китайцы даже лучше большинства развивающихся стран.
B. При этом вряд ли кто сомневается, что по части ИИ-потенциала (да и вообще, по части экономики, науки и технологий), Китай – хоть еще и не №1 в мире, но уж точно не ниже №2.

Именно поэтому австралийская новостное агентство сопроводило новость об этом отчете видеороликом «ИИ-технологии делают Китай более мощным, чем никогда»

Данных по России в отчете, понятное дело, нет.
Однако, по данным ВЦИОМ, активность использования и умение россиян примерно как в Австралии и Канаде. А по части доверия и оптимизма – как в Венгрии или Испании.

Так что, чтобы присоединиться к почетной 3й группе, в России нужно сильно больше китайцев.

#ИИгонка #Китай


Твои глаза лгут, а мозг подкупает
Как иллюзии — и нейросети — заставляют нас верить в собственную непогрешимость
И как вам этот бред с тремя танцовщицами на приложенном GIFе?
✔️ Если смотреть на танцовщиц слева и посередине, то средняя вращается по часовой стрелке.
✔️ Если же смотреть на танцовщиц справа и посередине, то средняя вращается против часовой стрелке
Какой из вариантов, по-вашему, истина?
Увы!

Как я писал в «”Ловушке Гудхарда” для AGI», — современная наука не располагает вескими основаниями для теоретических или эмпирических критериев различения разума «нормального, рационального человека» от «иррационального разума безумца». То есть невозможно, проведя тесты, сделать однозначный вывод — перед нами разумный или безумный человек. Здесь все слишком зыбко, условно и не точно, чтобы решать такие вопросы тестированием с бинарным вердиктом «да/нет».

• Наш мир так интересно устроен, что абсолютно всё, что нам кажется очевидным, рекомендуется ставить под вопрос. Ибо наши убеждения и вся наша культура в целом формируются на основе субъективного восприятия. А оно почти всегда врёт.
• Как же люди выживают, будучи в плену этой «иллюзии разумности»?
• Для этого эволюция создала для всего живого особую «валюту» —  уверенность. И теперь, помимо нас, та же «валюта» в тех же целях используется и языковыми моделями (LLM), от советов и рекомендаций которых мы все больше зависит при принятии решений.
• В результате получается, что от того, каков «курс обмена» уверенности ИИ в уверенность ЛПР (лица принимающего решение), будет зависеть практически всё: от решения что-либо купить до решения о нанесении ядерного удара.

Зачем знать курс обмена долларов в рубли  —  понятно всем.
А вот вопросом, зачем знать «обменный курс» уверенности ИИ в вашу уверенность при принятии решения,  —  вряд ли кто-то из вас озадачивается.


Тогда как знать это критически важно:
 —  Для людей. Ибо, осознав, что «уверенность ≠ истина», мы учимся интеллектуальному смирению и лучше фильтруем инфопоток.
 —  Для ИИ. Ибо чем прозрачнее модель заявит о границах своих знаний, тем меньше риска, что пользователь «купится» на её иллюзию непогрешимости.
 —  Для общества. Ибо понимание, что любая культура — это согласованная, но не абсолютная карта реальности, помогает строить диалог вместо конфронтации.

Иначе говоря, чтобы сделать и людей, и алгоритмы разумнее, нужно не столько увеличивать объём данных и число параметров LLM, сколько учить и себя, и LLM правильно сомневаться.

Неумение правильно сомневаться дорого стоило человечеству. В наше время «иллюзия объективности» стала самым страшным пороком – хуже трусости.

Бороться с иллюзиями — зацементированными в нас эволюционными нейрокодами когнитивных искажений, — задача колоссальной сложности.

А с переходом мира в цифру, «иллюзия объективности» встраивается во все инфопотоки социальных медиа, становясь главным фактором роста супер-поляризации (внутри каждого из обществ и между ними).
Результат этого — скачок насилия, разгоняемого активацией единственного нейрокода, встроенного в нас природой для преодоления супер-поляризации — кода с условным названием «если другая сторона не сдается, то её уничтожают».

«Иллюзия объективности» в «разуме» ИИ будет стоить людям еще дороже.
Вот короткое пояснение этой мысли.

#КогнитивныеИскажения #LLM


ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:

«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления».

Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).

С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.

Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).

Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми

Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!

Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).

И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.

А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.

#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo


Найден практический способ создания ИИ с сознанием и человеческой моралью.
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.

Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.

Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.

Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».

Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.

#ИИ #AGI #АктивныйВывод


Deepseek разоблачен
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».

Сухой остаток заключения комитета можно сформулировать так.

Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.

Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.

Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.

Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
В это трудно поверить, но Deepseek в реальном времени (!!!) цензурирует свои ответы. И прямо на ваших глазах исправляет сделанные парой абзацев выше в том же чате свои высказывания или просто стирает их, ссылаясь на невозможность обсуждения этой темы.

Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.

#Китай #США #ИИгонка #ЭкспортныйКонтроль


AGI — не надвигающийся «Скайнет», а сверхсложная электророзетка.
Если вам надоело слушать о грядущем восстании машин, вот освежающий глоток реализма и конструктивности.
Именно такой нестандартный ракурс предлагают исследователи Принстонского университета Арвинд Нараянян и Саяш Капур в эссе «AI as Normal Technology». Они называют ИИ «нормальной технологией» и убеждают: главное в нём — не мифическая «суперинтеллектуальность», а вполне земная логика изобретения, внедрения и распространения.

Ключевая мысль авторов такова.
Термины «интеллект» и «сверхинтеллект» уже несколько десятков лет использовались неправильно. Эти термины попеременно относятся то к возможностям (capability), то к мощи/власти (power). Но первое является неотъемлемым свойством системы, тогда как второе — это вопрос того, как мы проектируем среду, в которой функционируют системы ИИ. И здесь люди обладают широким спектром возможностей влиять на проектирование.

Медленное, но верное влияние
Авторы считают, что прорывы в моделях происходят быстро, но до реальных экономических сдвигов пройдут десятилетия — ровно как было с электричеством или интернетом. Особенно это касается чувствительных сфер применения (медицина, транспорт …), где безопасность и регулирование устанавливают естественный «скоростной лимит»

Люди остаются у руля
Даже в мире более продвинутого ИИ, контроль, как подчёркивают авторы, остаётся за людьми и организациями. Вместо «галактического мозга в коробке» авторы видят множество моделей человеческого надзора: аудит, мониторинг, отказоустойчивые «тормоза», принцип наименьших привилегий и др. — целый инженерный арсенал, который уже работает в других критически важных системах.

Риски и как их укротить
Авторы анализируют четыре группы угроз: аварии, гонка вооружений, злоупотребления и спекулятивное «бумажно скрепочное» рассогласование целей. Все они, по мнению авторов, решаемы средствами нормального техно управления. А вот долгосрочные социальные перекосы — неравенство, эрозия доверия, монокультура моделей — куда опаснее и требуют внимания уже сегодня.

Политика «устойчивости», а не «запретов»
Авторы предлагают ориентир — resilience: уменьшать неопределённость, делать системы отказоустойчивыми, развивать открытость и конкуренцию. Напротив, идеи «нераспространения» (строгие лицензии, закрытие моделей) они считают контрпродуктивными: меньше игроков — значит одна единственная уязвимость может обрушить всё сразу. Вместо этого государствам стоит инвестировать в научные данные о реальных инцидентах, повышать ИИ грамотность общества и укреплять социальные лифты для тех, кого автоматизация затронет первыми.

Почему это важно
Эссе разрушает привычное «апокалиптическое» и «утопическое» деление обсуждений ИИ. Оно возвращает разговор в плоскость институций, экономики и людей, напоминая: технологии меняют мир не рывком, а шаг за шагом. От того, как мы организуем эти шаги, зависит, станет ли ИИ очередным двигателем прогресса или усилителем старых проблем.

#AGI #ИИриски #Хриски


Это значит, что полагаться на безукоризненность демократических избирательных процедур так же бессмысленно, как искать формулу, способную доказать все истины.

Что общего у парадоксов голосования и знаменитого логического ребуса «это предложение недоказуемо»?

Австралийские исследователи Ори Ливсон и Михаил Прокопенко показали: за обоими явлениями скрыт один и тот же логический узел — самоотсылка.

1. От Гёделя к выборам.
В 1931 г. Курт Гёдель доказал, что любая достаточно «умная» математическая система содержит истинные, но недоказуемые утверждения. Ливсон и Прокопенко берут этот приём (кодирование формул числами) и переносят идею в экономику: бюллетени и итог голосования — тоже «коды», только это «коды» предпочтений избирателей.

2. Столкновение с парадоксом Кондорсе.
Когда система пытается сверить итог с каждым индивидуальным мнением, она наталкивается на циклы — «А лучше B, B лучше C, но C лучше A». Математики называют это самопротиворечием, аналогом гёделевского «я лгу».

3. Новый мост к теореме Эрроу.
Ранее Кеннет Эрроу доказал: если соблюдать два естественных критерия справедливости, идеальная ранжированная система голосования возможна только при диктаторе. Ливсон и Прокопенко формализуют это как невычислимость: чтобы устранить парадоксы, нужен «супер избиратель», который решает за всех — то есть рулит диктат.

4. Вывод для демократии.
Итоговой «серебряной пули» нет: любое честное голосование неизбежно уступает одному из критериев — пропорциональности, стратегической устойчивости или простоте. В этом и кроется новое математическое объяснение афоризма Уинстона Черчилля: «Демократия — наихудшая форма правления, если не считать всех остальных» - т.е. демократия далека от идеала, но у прочих форм правления изъяны ещё глубже.

Суть открытия
Ливсон и Прокопенко создали общую «язык оболочку» — Self Reference System, показав, что логические пределы математики и пределы коллективного выбора — это две проекции одного феномена. Их работа не отменяет выборы, но доказывает: требовать безукоризненной процедуры — так же бессмысленно, как искать формулу, способную доказать все истины.

Выбор остаётся делом компромиссов, открытости и контроля, а не поиском невозможного «совершенного алгоритма» — ровно к чему и подталкивает нас знаменитая фраза Черчилля.


#Выборы #Демократия


«Во многих случаях мы недостаточно понимаем причинно-следственные связи, чтобы разработать политику, которая не навредит больше, чем принесёт пользы.»
Аарон Клаузет

8 лет назад в 1ом посте серии «Большой войны не миновать» мною была разобрана убедительная математическая аргументация, опровергающая теорию Стивена Пинкера о будто бы уже начавшейся эпохе «долгого мира».
Вывод поста был таков:
Большой войны с десятками миллионов жертв человечеству не миновать.

7 лет назад во 2м посте этой серии«Большая война ближе, чем мы думаем», — было рассказано о результатах исследования Аарона Клаузета, математически доказавшего следующее:
Мы живем в циклической реальности, в которой на смену всё более «долгого мира» идут всё более кровопролитные войны.

А 6 лет назад в 3м посте этой серии«Окончательный диагноз — большой войны не миновать», посвященном исследованию Уго Барди с коллегами, был дан подробный разбор ужасного, но математически хорошо обоснованного вердикта:
В недалеком будущем мир ждет война ещё более кровопролитная, чем 2я Мировая.
В основании этого вердикта был перевод представлений о войне из области качественных гуманитарных оценок и категорий в естественнонаучную область математически формулируемых гипотез и их экспериментальной проверки на моделях, позволяющих количественную оценку их точности.
А с этих позиций: война — это встроенный в структуру общества механизм эффективного снижения энтропии человеческих обществ — сложных систем, живущих на кромке хаоса в состоянии самоорганизованной критичности.

В работе Уго Барди с коллегами было показано:
• Цель всех войн одна — снижение энтропии;
• Война — это встроенный в структуру общества механизм эффективного снижения энтропии человеческих обществ — сложных систем, живущих на кромке хаоса в состоянии самоорганизованной критичности.
Эти выводы математически подтвердили интуицию Льва Толстого: войны не являются результатом идеологий, религий, безумных правителей или тому подобного. Войны инициируются развитием структуры социальной сети сообществ в результате того, как эти сообщества связаны, и какова накопленная в сети энергия.

Единственное, что оставалось неясно — как и почему лишь некоторые из войн становятся по-настоящему большими?

Новая работа Аарона Клаузета и коллег дает ответ на этот вопрос.

Ключевой характеристикой, определяющей, станет ли война большой, является динамика эскалации. Ее параметры весьма точно объясняют различия в исторических размерах, как гражданских, так и межгосударственных войн.

Динамика эскалации войны зависит от огромного числа часто непредсказуемых событий. И это приводит к огромной неопределенности в прогнозировании возможных размеров как гипотетических, так и текущих войн.
Однако, существует тесная связь между размером, а следовательно, и стоимостью вооруженного конфликта и его потенциалом для эскалации. И это имеет широкие последствия, как для теорий начала или прекращения конфликтов, так и для оценки рисков в международных отношениях.

И этот фактор, — возможность финансирования эскалации войны, — по сути и становится решающим фактором, определяющим, перерастет ли она в большую войну или нет.

Т.е. если деньги на эскалацию войны будут, то она, весьма вероятно, перерастет в большую.

#БольшаяВойна


Нас не заменят
Найдено обоснование «парадокса Дедала для ИИ»

✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.


Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.

Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)

Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.

Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.

Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.

Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.

Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.

Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.

Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.

Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.

Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.

Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.

#LLMvsHomo


Одних ИИ заменит. Другим усилит способности. Но главное, - ИИ выявит эффективных лидеров.
ИИ может оценивать лидерские качества лучше любого HR.
Новое исследование от Harvard Kennedy School взорвало представления о том, как можно идентифицировать лидеров. Не начальников по формальным полномочиям. А именно командных лидеров, наиболее эффективно мотивирующих и ведущих за собой людей.

Лидеры, в отличие от начальников, обладают поведенческими моделями, которые способствуют сотрудничеству, и в основе которых тип социально-эмоционального интеллекта, называемый некогнитивными или «мягкими» навыками - сотрудничество, командная работа, адаптивность, письменная и устная коммуникация…
Корпоративные HR и топовые консультанты делают вид, будто успешно тестируют кандидатов, якобы выявляя среди них настоящих лидеров. Однако с некогнитивными навыками оказывается куда сложнее, чем с когнитивными. Ведь измерять их – все равно, что измерить человеческую душу – нечто эфемерное и неуловимое.

Новое исследование предлагает и экспериментально подтверждает эффективность кардинально нового метода определения и развития лидерских качества в эпоху ИИ.
• Дайте человеку руководить командой, состоящих из ИИ-агентов. И посмотрите на результаты работы команды.
• Результат исследования поражает: навыки, проявленные при работе с искусственными коллегами, почти идеально (корреляция 0,81) совпадают с эффективностью руководства живыми людьми.

Ключевой вывод исследования
Лидерство не зависит от резюме или формальных регалий. Настоящий лидер — тот, кто задает вопросы, обеспечивает участие каждого члена команды и использует объединяющие "мы" и "нас" в своей речи. Эти паттерны универсальны — неважно, общаетесь вы с человеком или алгоритмом.

Исследование предвещает революцию в корпоративной культуре.
• Вместо субъективных собеседований — динамическая оценка реального поведения в полевых условиях руководства командой искусственных коллег.
• Вместо общих тренингов — точечное развитие коммуникационных привычек в ходе все тех же полевых условий.

Но это еще не все.
Исследование показало, что ИИ не может в полной мере распознать эмоциональную сторону взаимодействия в коллективе. Когда лидеры проявляли эмпатию и энтузиазм при работе с людьми, это повышало эффективность работы команды, но не влияло на эффективность ИИ-агентов.

Именно здесь проходит новая граница — эмоциональный интеллект и стратегическое мышление остаются территорией людей.
По крайней мере, пока.

Это значит, что мы стоим на пороге эпохи, где технологии:
• не только заменяют людей в интеллектуальной деятельности;
• и не только, подобно «интеллектуальным экзоскелетам», усиливают интеллектуальные и творческие способности людей.


Это также и эпоха, когда технологии помогут раскрывать лучшие качества людей, прокачивать их «мягкие навыки», катализировать в них эмпатию и их главное конкурентное качество – человечность.

#ИИ #Карьера #Лидерство


Почему многих мужчин не привлекают красивые девушки секс-роботы?
Почему столь убогое предложение секс-роботов мужчин?
Позволяют ли сексуальные технологии превзойти уровень ощущений от секса с людьми?
Эти вопросы иллюстрируют сложную взаимосвязь человеческого тела, ИИ-медиа-технологий и сексуальности.
Прямо сейчас формируется новый сегмент цифровой сексуальной культуры.
И прямо сейчас в нем решаются 3 актуальные задачи трансформации чисто физической сексуальной культуры в синтетическую.

Задача 1: Мужчинам – интерактивную куклу с личностью

Сначала были просто куклы, потом говорящие, потом интерактивные, потом куклы превратились в роботов, а после революции ChatGPT появились мультимодальные роботы с личностью.
Вот Хармони - 1е поколение секс-роботниц. Историю создания этой «матери всех интеллектуальных секс-работниц» см. в книге «Секс-работа сегодня: эротический труд в XXI веке»
Вот та же Хармони, но уже 2го поколения. О ней так отзывались после «тест-драйва» - «Занимаясь сексом с Хармони, я сломал ее. Избил ее до потери сознания, механически … чтобы выяснить, в чем ее слабости».
А это уже 3е поколение – «дети» Хармони. Уже не только секс-роботницы, но и работники медиа и развлечений, здравоохранения, соцслужб и корпрсервисов – Ария, Мелоди и Генри.
3е поколение оснащено:
• системой для
- распознавания человека, объектов и обстановки
- реалистичного взаимодействия и персонализированного опыта
- понимания сцен, людей и поведения
• диалоговыми ИИ ChatGPT, DeepSeek и Claude для интеллектуальных и контекстно-дифференцированных бесед в реальном времени
Теперь это «человекоподобные роботы для взаимодействия с людьми - для общения, развлечения и обслуживание клиентов».
И хотя они пока говорят и ведут себя заторможено, но 1я задача на пути к решению.

Задача 2: Женщинам – все что хотят, когда анонимны

Решение этой задачи оказалось гораздо сложнее по 2 причинам.
А) Сексуальные потребности женщин много шире и разнообразней.
Б) Технологическая реализация физического отличия Ян от Инь на удивление нетривиальна.
Пояснения к п. А вы найдете в бестселлере «Хочу: Сексуальные фантазии анонимных женщин». Этот сборник 174 сексуальных фантазий категории «Х» женщин со всего мира. Женщин спрашивают:
• Как бы вы относились к сексу, если бы были абсолютно свободны и анонимны?
• Чего бы вы хотели, про что никто не узнает?

Из ответов видно, что бытующее представление, будто женщины менее сексуальными, чем мужчины, глубоко ошибочно. В глубине воображения желания женщин куда более изобретательны, чем у мужчин.
Но как сделать робота, способного выполнить хотя бы половину столь широкого спектра желаний?

А тут еще и проблема с п. Б - технологическая реализация основного отличия Ян от Инь. Проблема не в прессе с шестью кубиками и не в чертах лица - им не нужна внешность Алена Делона [1 2 3].
Проблема в сложности “настраиваемого «бионического» пениса c адаптивной ребристостью и васкуляризацией”. Его обещали сделать в 2018. Потом в 2022. Но и в 2025 стоимость затейливого устройства все еще слишком высока для массовых продаж.

Задача 3: Остальным – недостижимый в физическом мире микс ощущений

Решение этой задачи должно позволить выйти за рамки аналогового мира за счет небывалой синергии ощущений, поступающих сразу из трёх миров: физического, воображаемого и виртуального - цифрового.
По замыслу евангелиста и технолога этого направления Маттиаса Сметана, «сочетание ИИ, робототехники, тактильных интерфейсов и дополненной реальности (AR/VR), меняет наше представление об интимности и эмоциональной связи»,
Один из главных полигонов экспериментов этого направления - берлинский Cybrothel.
Тут работает синтез разных технологий:
• Интерактивные куклы с личностью, типа Kokeshi 2.0
• Игровой опыт смешанной реальности на симуляторе Cherry VX
• Погружение в иммерсивную среду BaDoinkVR, сочетающую визуальные элементы с физическими ощущениями через тактильные интерфейсы.

Подробней в деталях и с дополнительными ссылками – см. на моих подписных платформах.

#ХищныеВещиВека #ЭмоциональныеКомпаньоны


«Гормоны в тренде: секс-роботы с ИИ взорвали рынок»
Так озаглавлен весьма интересный материал 定焦One (это китайский портал про инновации) о том, как интеграция ИИ-технологий трансформирует «бастарда» индустрии человекоподобных роботов – сегмент «роботов для взрослых». На наших глазах этот «бастард» рынка «кукол для интимных развлечений» превращается в солидный сегмент индустрии человекоподобных роботов – «рынок эмоциональных партнеров».

В июне 2024, открывая рубрику «Хищные вещи века GenAI», я писал: «Не нужно быть пророком, чтобы предвидеть, на чем, в первую очередь, станут зарабатывать разработчики чатботов на основе GenAI». И №1 в этом списке шёл секс.
«Вангую, - писал я, - что с внедрением в эту область GenAI до создания кукол-биороботов для «пупарасов» (т.е. любителей кукол, замечательно описанных в романе В.Пелевина «S.N.U.F.F») не более пары лет».

О как я ошибался. Потребовалось менее года.

В апреле сразу несколько ведущих производителей «кукол для интимных развлечений» выводят на рынки новое поколение «эмоциональных партнеров» на базе ГенИИ.
Например, лидер китайского рынка - компания WMDoll кардинально обновляет свою флагманскую серию MetaBox – человекоподобные роботы с ИИ-модулем Llama AI, подключенным к службам облачных вычислений, размещенных в 10+ ЦОД.
Предлагаются множество голосов для разных персонажей (с возможностью подгонки индивидуальности и шарма): напр. медсестра, дама-полицейский, ученица, секретарь, учительница и суперженщина.
Все куклы обладают металлическим скелетом и имеют внешнюю часть из силикона или термопластичного эластомера с подогревом.

Но что главное:
• все они теперь оснащены памятью и помнят предыдущий опыт общения;
• а также способны эмоционально подбадривать партера – типа «две минуты – это круто»

По мнению аналитиков, использование ГенИИ, мягких материалов и физиологических сенсорных технологий «роботы для взрослых» в течение года эволюционируют от «физиологического инструмента» к «эмоциональному партнёру», что потенциально открывает рынок объёмом в сотни миллиардов.

Отчеты солидных аналитиков привычно обсуждают прогнозы лишь «законных» сегментов индустрии человекоподобных роботов. Так в исследовательском отчете CICC прогнозируется, что в будущем объем рынка человекоподобных роботов значительно превзойдет объемы автомобильной и 3C-отраслей (Computers, Consumer Electronics and Communication). А по прогнозу Goldman Sachs, к 2035 году мировой рынок человекоподобных роботов достигнет $154 млрд , и перспективы рынка весьма значительны.

Однако, рынок «роботов для взрослых» уже в 2025 превысит $30 млрд, причём доля Китая превысит 40%.

Согласитесь, что мировое лидерство в этой области – весьма интересная особенность авторитарного государства тотального контроля над гражданами.

#Китай #ХищныеВещиВека #GenAI #ЭмоциональныеКомпаньоны


Подкаст о прогностическом исследовании "Искусственный интеллект 2027"


Символом надвигающейся глобальной ИИ-катастрофы стала химера «серого носорога» и «черного лебедя»
Часовой механизм «интеллектуального взрыва» запущен, и время обратного отсчёта до необратимости – не более трёх лет.
В январе 2024 стратегические аналитики разведки Китая особо выделили уникальный характер начавшегося года.
• Он станет "решающим" для глобального управления ИИ.
• Он будет уникален по числу и взаимовлиянию событий двух типов: "черный лебедь" и "серый носорог".

Напомню, что «серый носорог» рассматривается как противоположность «черному лебедю» — плохо поддающейся прогнозированию угрозе. События, называемые «серыми носорогами», не только могут быть спрогнозированы, более того - довольно часто они просто очевидны.

В начале 2025 угрожающая перспектива сочетания сверхбыстрого развития ИИ с развернувшейся ИИ-гонкой США и Китая ничего хорошего не обещает. Когда главная цель лидеров гонки – лишь бы стать №1, - всеми остальными целями и связанными с ними рисками просто пренебрегают.
Признавая это, Вице-премьер Китая Дин Сюэсян в январе призвал остановить хаотичную конкуренцию в сфере ИИ, способную уже в ближайшие 2-3 года сделать приход в мир гигантского «серого носорога» ИИ-рисков неотвратимым.

А вчера, третьего апреля 2025 года было опубликовано исследование, написанное пятью известными в области ИИ авторами и озаглавленное "Искусственный интеллект 2027".

Главную мысль авторов я резюмирую так, что перспектива развития ИИ в ближайшие 3 года уже превратилась в колоссального размера «серого носорога»:
• Большинство исследователей понимают, что отсчет пошел, - и «взрыв интеллекта» на Земле произойдет в ближайшие годы.
• Как это будет происходить – возможны сценарии. В какой форме и как скоро – возможны варианты. Но то, что произойдет и очень скоро, - шансы крайне велики.
• Однако, на то он и «серый носорог», что появление этого колоссального риска прогнозируемо, для многих даже очевидно, но, по гамбургскому счету, тотально игнорируемо.

Рассчитывать, что это прогностическое исследование прочтут многие, наивно.
Однако, прослушать приложенный ниже 15 минутный аналитический аудио-бриф исследования на русском языке захотят и, надеюсь, смогут все же побольше.

Это совместная работа двух моделей (OpenAI и Google) под моей редакцией.

#СтратегическаяАналитика #ИИ #Китай #США

Показано 20 последних публикаций.