Love. Death. Transformers.


Гео и язык канала: Россия, Русский


❤️☠️🤗
Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Реклама от 1000usd, в противном случае прошу не беспокоить.
[18+] ответственность за прочитанное лежит на читателе

Связанные каналы  |  Похожие каналы

Гео и язык канала
Россия, Русский
Статистика
Фильтр публикаций


Репост из: ду́но
Рассказываем о нашей работе принятой на ICML 2024. В деталях.

🌻Контекст🌻

In-Context RL позволяет обучать агентов способных на адаптацию к новым задачам прямо во время инференеса, то есть zero-shot. При этом не происходит обновлений весов модели или обучения Q-функции; вся адаптация вшита при обучении в механизм внимания.

Не сказка ли? Может быть, если бы не одно но: процесс сбора данных. В AD предлагается поступить так: возьмём n задач в среде и для каждой из них обучим своего RL-ного агента. Во время обучения будем сохранять их полную историю обучения, то есть все состояния, действия и награды. Таким образом мы соберём n историй обучения, в начале которых агент не умеет ничего, а в конце уже успешно решает задачу. На них и будем обучать трансформер предсказывать следующее действие.

Но что это за число n? Какого оно порядка? Оказывается, для успешного обучения на весьма простой задаче нужно обучить около тысячи (sic!) RL агентов. Понятно, что такой подход недёшев в плане вычислений и времени.

🌻Что предлагаем мы?🌻

Чтобы облегчить сбор данных и тем самым приблизить in-context RL к применению в реальных задачах, мы предложили способ генерации историй с помощью шума.

Часто так бывает, что мы не можем решить задачу с нуля RL-ем, но имеем некоторый набор почти оптимальных демонстраций. Мы можем обучить на этом обычный Behavior Cloning, но он не будет обладать способностями к in-context, т.к. данные не содержали истории обучения. Как же теперь получить историю обучения, когда мы имеем только конечную политику эксперта?

Идея простая: давайте просто начнём постепенно добавлять больше и больше шума, то есть с вероятностью ε будем делать действие по политике, а с вероятностью 1 - ε делаем случайное действие. При этом с каждым шагом мы увеличиваем ε вплоть до единицы. Получается, что когда ε = 1 агент не умеет ничего, а при ε = 0 успешно решает задачу. Вот мы и восстановили историю (на самом деле, получили прокси историю) обучения.

🌻И это работает?🌻

Да.

Для тестирования мы использовали классические в in-context RL среды: Dark Room (grid-MDP), Dark Key-to-Door (grid-POMPD), Watermaze (3D-MDP). Обученный на наших данных агент приобретает способности in-context адаптации к новым задачам. Что удивительно, вы можете использовать для генерации демонстрации далекие от оптимальных. Например, наш агент в некоторых случаях смог превзойти лучший результат в данных более чем в два раза.

кодстатьяпостер (4k)ilya's talk

- - —
@dunnolab

1.2k 0 27 10 21

Никто
Абсолютно никто
Chinese chinchilla


Репост из: BORN IN THE DESERT
Как меня кинули на 100к в работе с Exeed

История классическая, как роман Ф.М. Достоевского «Идиот». Краткое содержание: НИКОГДА, ни с кем не работайте без подписанного договора и предоплаты. Не надо этого делать. Даже если люди приятные, кажутся адекватными и не похожи на мошенников, не делайте этого!
А теперь к сути.
Мой клиент: продакшен студия ООО «Флэш»: https://www.rusprofile.ru/id/1247700175436 Позиционирует себя как серьезный продакшен. Настолько серьезный, что их сайта не существует https://flash.ooo/ Ну штош, может доделают его за счет тех денег, на которые меня шваркнули.(продолжение в вложениях)

@annak_ooo-Анна

3.3k 0 22 16 57

Украдено в @prlshrlinlove

4.1k 0 104 5 89

AGI achieved tigernally


Никогда не спрашивайте тигрят кто им платит и за что.


забейте, symbolic solvers are agi enough(спасибо что не сравнили калькулятор с человеком), не читайте высеры дипмайнда, читайте супер базированные китайские работы где люди с очень большими яйцами показывают как надо.


серьезно, почитайте вечером, отличная китайская работа


:soyjack face


Репост из: ML Underhood
Видеоигры из фото и другие крутые доклады с ICML 2024

Прямо сейчас проходит международная конференция по машинному обучению ICML 2024. Александр Шишеня и Сергей Овчаренко из службы компьютерного зрения Яндекса выбрали интересные доклады, которые уже представили на мероприятии.

Туториал Physics of Language Models

Прорывной доклад первых двух дней о построении AGI на LLM. Авторы обнаружили два уровня рассуждения (reasoning) для моделей. На первом LLM могут выучивать графы причинно-следственных связей для сложных задач и делать топологическую сортировку для понимания порядка вычисления в этом графе. А на втором модель заранее просчитывает все промежуточные данные для построения ответа.

Ошибки случаются, но, благодаря linear probe, LLM с вероятностью 99% сама предсказывает, где промахнется. Исправить, правда, не сможет, поэтому рекомендуется добавлять в обучающую выборку CoT-примеры с ошибками и их исправлением.

Genie: Generative Interactive Environments

Доклад от DeepMind, сотрудники которого обучили две модели на датасете из видеоигр — в основном, 2D-платформерах. Одна модель кодирует возможные действия игрока в латентное дискретное пространство, а другая — предсказывает следующие фреймы по предыдущим. В итоге Genie способна генерировать видеоигровые уровни из текстовых промтов, рисунков и фотографий. Статья получила награду Best Paper Award.

Video-LaVIT: Unified Video-Language Pre-training with Decoupled Visual-Motional Tokenization

Доклад об авторегрессионной модели, способной предсказывать текстовые токены и видео. Она обучена на next-token prediction с диффузионной моделью для генерации кадров в пиксельном пространстве и motion-векторы. С помощью DDIM-инверсии получают «шумную» версию последнего кадра и сопоставляют ее с предыдущими. Получившаяся модель умеет генерировать весьма долгие видео по промту или первому кадру.

ML Underhood


Естественная мужская потребность поставить печку в спешалти кофейне.

К слову отличный кофе наливают в the good coffe society


Репост из: Blind Feed
A Girl's Perspective on Bay Area Men

lownhq @ Meta

Hi everyone, as a gal, I am offering you my view on why many of you are not getting laid for years on end. First of all, most tech workers over here are bottom of the barrel in terms of sexual attraction anywhere in the world. Your job and salary and maybe education can compensate to a point, but they still don't fully address the attraction gap. If you moved elsewhere in the United States, you won't do much better. If you go to a 3rd world non-white country, you might do a lot better due to different standards of beauty. Second, being a millionaire SWE with a TC over 500k over here is not that big of a deal especially when the guy is too busy with work most of the time and boring outside of work. Girls want someone who makes their lives better and more interesting, not a drone with a bigger bank account. Third, there area lots of high quality men in the Bay Area and tech guys are at the bottom of the pyramid. There are men with generational wealth, corporate execs, successful startup founders, VCs, private equity guys, not to mention doctors, lawyers, and professors at Berkeley and Stanford. SWEs are just the minions who work for all these other people to put it bluntly. At the director level, tech guys start to have a chance to compete with other types of guys. I personally put an engineering director at first and second tier companies on the same level as a successful doctor or big law lawyer.

What I said above applies for women under the age of 35. Between the ages of 35 to 40, women will start to lower their standards especially if the man is younger than her. The market skews in favor of men starting around the age of 40 as women start thinking about menopause.

Yes, I know this is harsh, but I think knowing the truth can't hurt because then you can plan accordingly. The bar for men in the Bay Area is really high and it's not fair for you guys. But that's how the world is.

@blind_feed

4.3k 0 68 13 78

Eastern Europe research - мы считаемся на майнинг кластере, в лабе можно курить


Western Europe research - тканевый постер можно использовать как простынь


Лютая хуйня, openai будут заливать инвест бабки, как тот же uber, у ребят есть шансы подмять все и инвесторы это не упостят

https://www.datacenterdynamics.com/en/news/openai-training-and-inference-costs-could-reach-7bn-for-2024-ai-startup-set-to-lose-5bn-report/



6.6k 4 305 30 159



Новая модель мистраля неплохая, но они не оплачивают бар на своем afterparty так что мы такое не любим.

Скачать тут


На конференции есть три задачи:

- набухатся за счёт квантов
- не ходить на работу не беря отпуск
- приехать с рюкзаком, уехать с чемоданом мерча

5.1k 0 57 6 186

резерч


Репост из: Labrats


Чем больше я общаюсь с openai челами, тем больше ржу со слов про agi за три года и agi achieved internally

4.9k 0 37 37 142

Эм погодите, это что выходит gpt4о level в паблике? А что там с gpt4.5?

5.1k 2 38 31 74
Показано 20 последних публикаций.