Telegram Web Link
Поразительный прогресс сегодня происходит в диффузионных ИИ-моделях. С постоянными обновлениями MidJourney мы уже забыли про то, что ровно год назад мы всем интернетом восхищались маленьким картинкам со стулом-авокадо (первая картинка), и всего за год прогресс дошел до неотличимой от реальности граифки, которую можно генерировать абсолютно бесплатно на стареньком Air (а умельцы — даже на ведроидах).

В эту пятницу очередной вебинар Codex Town будет посвящен Stable Diffusion и бесплатным моделям для генерации фото/видео. Мы разберемся как эти модели работают, как скачать и бесплатно начать использовать, какие есть трюки для достижения максимально крутых результатов. Немного поговорим о том как тренировать свои графические модели, чтобы она могла генерировать прекрасные пейзажи и натюрморты исключительно в форме и стиле вашего кота.

Регистрация на вебинар: https://lu.ma/codextown
Подписчики codex.town в Boosty (для карт СНГ) и BuyMeaCoffee получат прямую ссылку на вебинар.
Есть ли сознание у LLM?

Сложный вопрос, учитывая что определить сознание толком не получается. Но авторы этого чудесного 88-страничного пейпера попытались ответить на вопрос. Для начала они выделили основные современные теории, которые определяют что такое вообще сознание:

Recurrent processing theory. Сознание возникает из рекуррентной обработки, при которой сигналы распространяются туда-сюда между различными уровнями кортикальной иерархии. Рекуррентные петли позволяют интегрировать информацию и сформировать организованное представление зрительной сцены.

Global workspace theory. Сознание включает "трансляцию" информации во многие различные области мозга через глобальное рабочее пространство. Только какая-то информация отбирается с помощью внимания и конкуренции, чтобы попасть в рабочее пространство ограниченной емкости и стать сознательной.

Higher-order theories. Сознание требует некоторого рода представления высшего порядка, такого как мысль или метакогнитивный процесс, направленный на ментальное состояние более низкого порядка. Представление высшего порядка делает нас осведомленными или сознательными о состоянии более низкого порядка.

Integrated information theory. Сознанию соответствует способность системы к интегрированной информации. То есть, количество информации, генерируемой взаимодействиями между частями, которое нельзя свести к самим частям.

Attention schema theory. Сознание зависит от построения упрощенной модели внимания - "схемы внимания", которая представляет обработку вниманием информации в мозге. Содержание этой схемы соответствует сознательному опыту.

Predictive processing theory. Мозг постоянно генерирует прогнозы сверху вниз и обновляет их на основе ошибок прогнозирования. Некоторые теоретики утверждают, что основные свойства сознания возникают из динамики предиктивной обработки.

Embodiment and enactivist theory. В основе лежит важность наличия тела, расположенного в окружающей среде, предполагая, что сознание возникает из сенсомоторных процессов и взаимодействий между мозгом, телом и миром.

Определить задачу уже важный шаг. Если пробежаться по пейперу дальше, но какого-то однозначного вывода авторы, конечно, не дают, но замечают интересные факты:

— LLM умны, но это еще не гарантирует сознание
— У LLM нет многих из перечисленных этими теориями свойств, такие как глобальное рабочее пространство, чувство "себя" и агентность, постоянный мониторинг окружающей среды через сенсорные органы
— LLM не имеют чувства физической реальности и тела, это жирный минус
— LLM могут печатать очень складный текст, но это не гарантия сознания. Они не могут подтвердить или проверить свои слова.
— Итого, наверное, сознания нет.

Что не удивительно, но скорее полезен факт того, что авторы сформулировали четкие критерии по которым можно будет отследить когда это сознание наконец-таки появится. Кстати, продажа подписки на сознательного ИИ-агента — это работорговля, ИТ-бизнес или что-то сродни продаже попугаев?
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Ясный сокол на 180 миллиардов параметров.

Falcon 180B - сверхмощная языковая модель с 180 миллиардами параметров, обученная на 3.5 триллионах(!) токенов.

Эта модель отлично справляется с различными задачами, такими как рассуждение, кодирование, знание и тесты знаний, даже опережая конкурентов, таких как Meta LLaMA 2.

Среди моделей с закрытым исходным кодом он стоит сразу за GPT 4 от OpenAI и работает наравне с PaLM 2 Large от Google.

Информация, хагингфейс и демо тут, там же можно скачать и почитать лиц соглашение.

https://falconllm.tii.ae/falcon-models.html

Понятно, что она не влезет ни в одну видеокарту, поэтому ждем вот такое оборудование от Nvidia:
🔥NVIDIA GH200 Grace Hopper 282 GB VRAM!

На SIGGRAPH 2023 NVIDIA анонсировала нового монстра для задча Generative AI - GH200 Grace Hopper с памятью HBM3e:

🔹 На борту чипа не только GPU, но и встроенный ARM процессор.

🔹 Базовая версия оснащена 141 GB VRAM и 72 ядрами ARM Neoverse c 480 GB LPDDR5X RAM.

🔹 С помощью NVIDIA NVLink можно объединять в сдвоенные "суперчипы", достигая 480x2 GB быстрой памяти (RAM)

🔹 Сдвоенный чип предлагает 282 GB VRAM, 144 ядра ARM Neoverse и 7.9 PFLOPS int8 производителтьности (так же как и у сдвоенной H100 NVL).

🔹 Новая память HBM3e на 50% быстрее предыдущего поколения HBM3, обеспечивая 10 ТБ/с комбинированной пропускной способности
Ожидание: AI-ассистенты, которые анализируют код, договора, диагнозы и помогают делать научные открытия

Реальность: топ revenue стартапы в ИИ — початиться с героями аниме (character), генерация виртуальных голых женщин, hot-or-not для виртуальных голых женщин, секстинг и виртуальный секс с виртуальными голыми женщинами

Хочешь заработать — аппелируй к низким (и потому максимально распространенным) потребностям.

Кстати, в пятницу мы расскажем как генерировать свои виртуальные картинки и видео (не обязательно голых людей) бесплатно, и как это работает изнутри. Регистрация на вебинар: https://lu.ma/codextown
Подписчики codex.town в Boosty (для карт СНГ) и BuyMeaCoffee получат прямую ссылку на вебинар.
Через несколько часов начнётся вебинар с Майком на тему генерации ИИ-графики с помощью диффузионных моделей типа SD, SDXL, ControlNet, Comfy и других.

А еще сегодня выложу видео про то как делать мощного продажного бота без кода и бесплатно. Видео будет в Boosty.

Регистрация на вебинар: https://lu.ma/codextown
Люди: изобрели промт «думай пошагово», улучшили производительность LLM, горды собой

LLM: придумал для себя промт «глубоко вдохни и подумай», улучшил производительность еще сильнее, забыл сообщить об этом кожаным

В данной таблице приведены примеры промтов, которые LLM делают сами для себя и их сравнительная эффективность.
Новое видео! Прикрепляю запись пятничного вебинара, где мы разобрали модели, которые умеют генерировать графический или видеоконтент на основе текстового ввода.

Мы посмотрели популярные диффузионные модели, такие как DALL-E, Stable Diffusion, Imagen. Разобрали принцип работы диффузионных моделей: латентное пространство, ньюансы обучения таких моделей, процесс генерации, производительность.

Так же копнули в инструменты для работы с диффузионными моделями, таких как Automatic1111 и DreamStudio. Так же на практике посмотрели как улучшить качество генерации используя ComfyUI и ControlNet.

Ну и наконец поговорили о перспективах применения диффузионных моделей — для сжатия и передачи медиаконтента, генерации видео по тексту и создания виртуальных персонажей и сред.

Смотреть запись: https://youtu.be/s5ogV5Z2dIU (презентация в описании)

Подписаться на Boosty и получить доступ к закрытым вебинарам: https://boosty.to/codextown
LLM призваны сэкономить нам миллиарды часов, вот один из примеров.

Сегодня думал как сделать эффективное и ёмкое представление большого количества коммуникаций, чтобы пользователь мог быстро понять что происходит, но ему не требовалось бы читать сотни чатов и имейлов.

Для этого сделал визуализацию чатов и переписок. Работает следующим образом:
— скрипт парсит ваши чаты, письма и группы
— создает графовую визуализацию, которая наглядно показывает участников (зеленые) и ключевые темы обсуждения (фиолетовые)
— и создает грани у графа, которые отражают отношения (предикат) между разными пользователями и идеями
— при желании можно нажать на любую грань и прочитать полный текст сообщения

Тестирую на всех своих каналах и группах. Работает еще не идеально, но зато узнал сколько всего я уже пропустил в безднах телеграма.

Видео с живым демо: https://youtu.be/qoeOdrQ5bZ0

Предыдущие итерации этой идеи: раз, два.
Продолжаю поражаться как много думания теперь за нас будут делать силиконовые нейронки.

Поиск, анализ и действия на основе информации — это большая часть нашей работы. Теперь её можно в существенной степени автоматизировать.

P.S. На скине редизайн и переработанный бекэнд проекта, о котором я писал в предыдущем посте.
Как OpenAI (и другие LLM компании) формулируют свою миссию: интеллект по запросу.

Есть проблема, для решения которой нужно Х мегатьюрингов конгнитивности? Отправляй свою задачу в этот API и плати $0.002 за ответ на страницу.

Сегодня это просить ИИ шиллить токены и писать мемы; завтра — научные исследования, диагнозы, legal opinions, код для энтерпрайз интеграций.
Фокус этого канала сильно сместился в сторону generative AI, но стоит заметить, что в крипте кажется что-то наконец происходит. А именно: paper hands VCs закурившиеся на максимуме бесполезными NFT коллекциями и токенами решились-таки продать на самом дне (одному Б-гу известно какая логика у них в голове), а скамеры отчаялись ждать у моря погоды и пошли в более рыбные места (тот же ИИ).

Не сказал бы, что одного этого достаточно чтобы биткоин взлетел, а лично вы сделали бы 1050 иксов за полторы недели без каких-либо напрягов (я знаю, вы к такому привыкли). Но следить за криптой становится интереснее. Теперь кроме поиска хомяка-инвестора, которому бы втюхать токен, там происходят более интересные штуки.

А именно их две: первая - технологическая, вторая - политическая. Первая про zk, account abstraction, новый дефай, identity&reputation. Вторая про то, про что крипта была с самого начала — последовательное, долгосрочное (think decades) переизоберетение и изменение существующих институтов, таких как глобальная финансовая система или системы распределения публичных благ (aka государства).

В первом случае пока все упирается в базовую продуктовую задачу — сделать так, чтобы это было удобнее и полезнее для пользователя, чем аналоги. Во втором — в задачу политических альянсов, в том числе со стороны разных кандидатов и партий в разных странах, или верховным и иных судах в США/ЕС.

Так что, если вы вдруг решили крипту похоронить только потому что она не сделала вас лично миллиардером с вашего $150 депозита за 3 месяца — то зря.
Лучший веб-сайт чтобы начать день (given, вам интересно куда движется мир и каким он будет через Х лет): https://huggingface.co/papers
Вышло очень серьезное исследование использования ИИ в бизнес-процессах, от бизнес-школ Гарварда и Пенна на примере ежедневной работы консультантов BCG (входит в тройку мировых самых крутых консалтинговых компаний).

- Измерялась продуктивность участников (сотрудник BCG получает от $15k/мес) по 18 навыкам. По всем из ним, по всем позициям, по всем типам измерения прироста продуктивности сотрудники с GPT-4 показали превосходство над остальными

- Консультанты, использующие ИИ, в среднем выполнили на 12,2% больше задач, завершили задания на 25,1% быстрее и показали на 40% более высокое качество результатов по сравнению с теми, кто не использовал ИИ. В эксперименте участвовало 728 консультантов BCG, команда провела сотни интервью и замеров.

- Есть две модели: кентавр и киборг. Первые четко разделяют где задачи для человека, а где для машины. Вторые слились с ИИ как продолжением своего тела.

- ИИ — великий уравнитель. Лучшие из лучших получили в среднем 17% прироста эффективности работы, а когорта "отстающих" аж целых 43%. В итоге их "score task" (оценка рабочих задач) почти сравнялся. Примерно как при добыче золота руками был очень важен личный скилл, а после изобретения экскаваторов или лопат все стали резко равны.

- Важно отметить, что слишком сильно полагаться на ИИ и не понимать рабочую область совсем — это тоже проблема. Авторы называют это "уснуть на рулём".

P.S. Хотите мы сделаем такой же пилот у вас в вашей компании? Пишите в личку. На это есть ресурсы (наши, технологические), время, желание.
OpenAI добавили на сайте возможность управлять своими файнтьюнингами. Обещают в следующем релизе сделать возможным создавать файнтьюнинг прямо тут. То есть, зашел на сайт, вставил нужные данные, затьюнил себе новую модель.
Чтобы предсказать успешность человека надо ответить на вопрос откуда он получает свой дофамин.

Мозг стремится к (crave) дофамину. И каждый для себя находит способ его получения. Это могут быть шумные вечеринки, интересные лекции, спорт, алкоголь, сериалы. А так же работа.

Так вот, в работе, куда больших результатов обычно получают те, у кого есть привычка получать дофамин не в тот момент, когда ваши идеи поддерживают, а когда вы сами свои идеи улучшаете или даже отбрасываете. Не признание, а улучшение собственной картины мира. Это создает привычку постоянно самоулучшения.

А откуда вы берете свой дофамин?
Сделать ИИ-агент с долгосрочной памятью, без программирования? Легко!

В эту пятницу на очередном (12-ом) вебинаре я покажу вам как сделать ИИ-приложение, которое умеет записывать новые знания в долгосрочную память и отвечать пользователю на основе именно этих знаний. Я покажу как делать это без единой строчки кода и таким образом, что ваш босс/клиент/жена/кот смогут в дальнейшем менять, адаптировать и улучшать приложения без каких-либо технических навыков.

Вам хотелось чтобы ChatGPT давал более конкретные ответы и ссылался бы на источник? Чтобы бот отвечал именно так, как вы его заранее "обучили"? Чтобы для сотрудника технической поддержки выдавалась сразу цитата из документации? Чтобы маркетинговые тексты аккуратно и точно показывали хар-ки продукта? Чтобы ваш личный ассистент отвечал по вашей собственной базе знаний, а не придумывал от себя?

Я покажу как это сделать используя исключительно публично и бесплатно доступные инструменты. Так же расскажу как использовать всю мощь LangChain через no-code платформы и как бесплатно эти платформы захостить. (Грубо говоря, как за $5-7/мес получить функционал, который StackAI продает за $900/мес)

Почти все практические юзкейсы генеративного ИИ включают в себя тот или иной способ дообучения, тьюнинга и чейнинга (соединения одной или нескольких LLM в сеть агентов, которые образуют мыслительный процесс). И подход, про который я расскажу в пятницу является самым простым, удобным даже для нетехнарей способом это сделать.

Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma. Исходный код, инструкция и запись воркшопа пришлю всем кто зарегистрирован или подписался в бусти. Начало в 4pm London / 6pm Moscow / 11am NY.
Media is too big
VIEW IN TELEGRAM
Только ленивый не написал о выходе DALL-E 3, новой диффузионной модели от OpenAI. В нашем последнем вебинаре мы как раз разбирали как работают такого рода модели.

Из плюсов:
- встроено в чат
- умеет текст и надписи
- классная стилизация
- все это можно будет встраивать через API (сгенерируй модель атома для урока химии, нарисуй лого на этом слайде)

Из минусов:
- непонятно насколько она хороша с лицами и людьми
- OpenAI серьезно восприняли вой на тему «я художник, это мой стиль» и теперь там будет копирайт-холокост и цензура

В течении ближайшего месяца будет доступно для всех пользователей ChatGPT Plus. А значит ваши промты, рабочие воркфлоу и чаты смогу генерировать умопомрачительный графон. Про DALL-E еще сделаем отдельный вебинар.

А в эту пятницу, напомню, будем говорить про создание цепочек ИИ-агентов с доступом к долговременной памяти, подключением к сайту или телеграмм-боту. Будет практический воркшоп. И все это через no-code. Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma.
This media is not supported in your browser
VIEW IN TELEGRAM
Можно вечно смотреть как бот подается на вакансии. Если ваши рекрутеры все ещё кожаные, то вас ждут тяжелые времена ;)

Этот скрипт считывает вакансию, сопоставляет её c резюме и заполняет вопросы и сопроводительные письма, где это требуется, индивидуальными ответами в стиле аппликанта.
Пишу сценарий по использованию LLM с долгосрочной памятью для завтрашего воркшопа. Все ещё принимаются идеи от вас, но с нуля создать и объяснить как это работает смогу только один полноценный сценарий.

— пользователь (админ) загружает документ (в моем случае, один — MiCA, регуляция криптоактивов в ЕС на 150 страниц; второй — подборка медицинских исследований о действии пептидов на организм)
— LLM генерирует список часто задаваемых вопросов по этому документу
— задав конкретный вопрос, конечный пользователь получает подробный ответ со ссылками на источники в документе
— пользователь может попросить перефорулировать каждый ответ одной кнопкой. например, упросить и написать понятным языком
— как бонус: показать как встроить такую систему в телеграм-бот, веб-сайт или Whatsapp
— конечно же, всё через no-code решения

Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma. Исходный код, инструкция и запись воркшопа пришлю всем кто зарегистрирован или подписался в Boosty. Начало в 4pm London / 6pm Moscow / 11am NY.
2024/10/02 22:23:50
Back to Top
HTML Embed Code: