Telegram Web Link
О хайпе

В крипту ломились миллионы, думая что для них это способ изменить свою жизнь. А именно: грязно разбогатеть с минимальными усилиями.

AI изучают и тестируют те же миллионы, думая что это способ изменить свою жизнь.

Только в крипте 99% хомяков всегда теряют свои вложения. А AI для 99% людей окажет существенное влияние на их благополучение, карьеру, умение приспосабливаться к новому миру.

Не говорю, что крипта/веб3 менее важны или чем-то хуже. Просто типичного хомяка «покупаю ради иксов»/«взял кредит, купил сигналы»/«продам квартиру, куплю обезьяну» там ничего кроме лишения всех накоплений не ждало и не ждёт.

UPD. Речь не о том, что идея крипты скам. Там тысячу умнейших и любимейших людей и крутых проектов. А о том, что для хомяка (типичного пользователя) крипта — это про то как побыстрее отдать деньги более беспринципным и хитрым.

Под разумными идеями (децентрализация финансовой системы и социальных институтов) хомякам продают TON и LUNA. А они покупают, потому что хотят ламбу, и пелена жадности застилает сознание.
Mistral, самая последняя и модная опенсорсная LLM, абсолютно незацензурирована из коробки. Расскажет всякие полезные лайфхаки, типа как шантажировать владельцев борделей и покупать кокаин.

Спасибо Диме за наводку.
В этом видео я расскажу вам, как команда ИИ-агентов могут придумывать, валидировать бизнес-идеи, и даже сделают за вас MVP. Это простая демка, целью которой является показать куда похожие технологии будут развиваться в ближайшем будущем. Я публикую все промты, исходники, ссылки и детали этого и других проектов в Boosty.
Готов платить зарплату компании, чтобы у меня была такая работа
Forwarded from Сиолошная
Как выглядит мечта...
Вася Суманов, с которым мы делали интервью в начале года, опубликовал большую статью по своей концепции Value Capturing Theory.

Недавно вышел выпуск рассылки токен инжинирингового сообщества, где изложены детали.

Грубо говоря, это периодическая таблица экономических систем создания и удержания ценности в цифровых протоколах.

Если цель веб3 — это создание программируемой экономики, то VCT это самый точный из мне известных фреймворков для структурирования всех способов создания и удержания ценности. Статья делает обзор разных проектов и протоколов и определяет источник создаваемой ценности, механизм удержания ценности и способы имплементации для каждого из них.

Будет полезно тем, кто работает в веб3 (но не продавцам обещаний и фантиков) и тем, кому интересно переложить модель программируемой экономики и финансов на некоторый гипотетический мир будущего, где генерация и обмен ценностью происходит уже не только между людьми и протоколами, но и автономными агентами.
Интернет всполошился. Вчера вышел 166-страничный репорт о возможностях GPT-4V. Оказалось, что GPT не только помножил на ноль почти все продукты в области NLP за последние годы, но и с ноги ворвался в Computer Vision, где сидели бородатые завсегдатаи, пили пиво и были уверены что "уж нас-то ваши эти трансформеры не тронут" (с).

Оказалось, что помимо простого "опиши что на картинке" GPT имеет глубокое понимание визуального и текстового контекста. Умеет определять темпоральный контекст. Знает как распознать и корректно идентифицировать эмоции людей. Прекрасно решает взиуальные логические задачи. Ставит корректные диагнозы по КТ и МРТ снимкам. Может дообучаться, в том числе на few-shot примерах прямо в промте. Анализирует графики. Распознает ингредиенты в блюде. Распознает конкретных людей. Понимает схемы, диаграммы, формулы, в том числе нарисованные от руки. Умеет выполнять навигацию по графическим элементам дизайна. Умеет принимать решения о навигации робота в реальном мире по двухмерной фотографии.

Но, главное, это вообще не какая-то другая модель. Это часть GPT-4 и, соотвественно, все что уже работает внутри GPT (промтинг, RAG, агенты) автоматически работает и для GPT-4V.

Для меня этот пейпер звучит как дикая фантастика 20-летней перспективы. Если бы OpenAI не анонсировал, что продукт будет доступен всем через месяц. А многие в твиттере уже имеют к нему доступ.

Вот тут Леша из Ai Happens рассказывает о примерах для бизнеса, а Сергей из Метаверсище и ИИще про кейсы в психологии и эмоциальном интеллекте.
Интернет встрепенулся (второй раз за день). GPT-4V забыт как детский сон. Open X (коллаборация 21 топовых университетов) дропнули пейпер и гигамодель для генерализации "воплощения" (embodiement) роботов.

Подобно тому как обучение на триллионах токенов создало универсальный NLP алгоритм (LLM), а обучение на терабайтах картинок создало универсальный графическую модель, теперь тот же принцип был успешно применён к робототехнике в новой модели RT-X.

Раньше ИИ модели создавали кастомно под задачи робота (управлять машиной, складывать детали, готовить еду, копать ямы). Здесь представлена модель, которая универсально управляет роботическими руками и умеет выполнять 1,5 миллиона отдельных задач без ручного обучения каждой из них. Роботы, не видевшие раньше задания, такие как "сложи", "возьми", "отсортируй", "налей", "переверни", "открой дверь", "подмети за собой" с первой попытки успешно их выполняют.

Если GPT — это генерализация логических и когнтивных задач (операций с битами), то эта штука — генерализация задач взаимодействия с физическим миром (операций с атомами). В робо-руках, управляемых RT-X, проявились эмерджентные свойства и умение выполнять задачи, которыми их не тренировали. Подобно тому как GPT может ответить на вопрос, который он никогда не видел. Технически это называется "cross-embodiment learning". Модель, кстати, с открытым кодом. Но, как мы знаем, все что Open рано или поздно становится не очень.

Так что, let's fuuucking go, hail to your robot overlords.
Forwarded from Codex Town (stepan)
В эту пятницу говорим о том как делать ботов и агентов, работающих на основе ваших данных для реального промышленного / бизнес применения.

Часто у наивной реализации бота с базой знаний или загруженными документами есть ряд недостатков:

- бот не отвечает на вопрос, хоть ответ и есть в базе знаний
- бот путается или отвечает невпопад
- агент находит неверный ответ
- данные устаревают
- ответ занимает слишком много времени
- ответ неправильно отформатирован.

На этом вебинаре мы рассмотрим стратегии и примеры решения подобных проблем:

1. Какие кейсы бывают для RAG (ответа по данным компании или пользователя)?
2. Как работает “наивная” реализация и какие у нее есть проблема
3. Как добиться более качественных ответов через структурирование данных
4. Как правильно делать оценку (evaluation) ответов
5. Как фильтровать данные
6. Какие стратегии лучше работают для каких типов данных?
7. Какие инструменты и продукты существуют для решения бизнес-задач?

Регистрация: https://lu.ma/codextown
Для подписчиков Boosty ссылка на участие и запись мероприятия будет прямо на странице Boosty.
This media is not supported in your browser
VIEW IN TELEGRAM
Как написал Макс Тегмарк в твиттере: "LLM это не просто стохастические попугаи, они содержат очень детальную модель мира". Новое исследование о том насколько хорошо большие языковые модели (LLM) представляют пространство и время.

Авторы создали 6 наборов данных с именами мест или событий и их координатами в пространстве или времени. Эти данные охватывают разные масштабы - от всего мира до отдельного города. Авторы показали, что LLM формируют линейные представления пространства и времени на ранних-средних слоях модели. Авторы обнаружили отдельные "нейроны пространства" и "нейроны времени", которые надежно кодируют пространственные и временные координаты. Они даже смогли обнаружить конкретные нейроны в Llama 2, отвечающий за широту и долготу определенных объектов или время событий.

Темпоральный и географический контекст являются ключевыми факторами создания точной и продуктивной модели мира, как для людей, так и для LLM.
Магия — это эмерджентность.

Всю жизнь наиболее благоговейный трепет в меня вселяли места и идеи, в которых переходит фазовый переход между разными законами взаимодействия систем.

Например, в компьютерах самое магическое место — это то, где происходит переход между очень конкретными физическими проводимости и абстрактными конпециями, такими как операции процессора и софт. Как из электричества мы получаем пиксели на экране? Как примитивный транзистор (или несколько их миллиардов) создают логические системы и виртуальные операции с данными?

Вот то же самое и нейронными сетями. Цифровой нейрон — это всего лишь одно число, коэффициент, параметр гигантской матрицы. Но при этом при их (миллиардов из них) умном (на самом деле нет) соединении появляются такие свойства как интеллект и даже форма сознания. Не магия ли?
Пока мы рассуждаем про мультимодальные модели для роботов со зрением, голосом и управлением конечностями, в корпоративной и бизнес среде LLM начинает внедряться так же повсеместно, но все-таки очень осторожно. Казалось бы, никого уже не удивишь возможностью дообучения LLM и подключения к ней корпоративных данных. Но, при этом, эффект от такого простого действия может быть фантастическим:
- экономит время на поиск информации
- генерирует релевантные тексты без галлюционаций
- анализирует сложные пайплайны данных
- заменяет работу по оценке эффективности работы многих департаментов.

Но даже такие простые вещи как подключение своих данных (aka RAG) — это не тривиальная задача. Вернее, она может быть решена тривиальным способом, но он не будет работать.

Поэтому завтра на вебинаре я расскажу про продвинутые техники и стратегия создания корпоративных RAG систем. Это не технический вебинар (будет один слайд с одной строчкой кода), но при этом я постараюсь быть максимально детальным в плане ответа на вопрос не просто "зачем?", а "как именно, конкретно?"

Регистрация: https://lu.ma/codextown
Для подписчиков Boosty ссылка на участие и запись мероприятия будет прямо на странице Boosty.
Есть только одна вещь в мире больше, чем скорость и масштаб развития ИИ — это человечная глупость и инертность.

С одной стороны стоят те, кто ждут Конца Экономики. Конец затронет только кожаных и только тех, кто не является собственником средств производства роботов и нейронок. Но вторые смогу нормально существовать только пока для этого производства нужны будут кожаные руки и белковые мозги (то есть, совсем недолго). Все что вы сделаете или заработаете в ближайшие пару лет — это то, с чем вы останетесь доживать жизнь. Плюс, бесплатная подписка на порно-метавселенную и базовый доход от очередной партии коммунистов или гигакорпорации, которая будет в тот момент самой популистской среди биомасс.

С другой стороны, до сих пор встречаются те, у кого «а ничего же не случилось». Верстают бюджеты на пять лет вперед, нанимают Джунов-юристов и копирайтеров, планируют привлекать деньги под «новую темку с ИИ и блокчейном». В их мире все еще держится на каких-то мифических связях и interpersonal skills. Ждут понижения ставок ФРС. И прочими способами активно сигнализируют, что нас-то это не коснется. Что людям все равно будет нужно то, что они делают.

И то, и другое показывает, что детский максимализм это проигрышная стратегия. Но вот взрослой, то бишь разумной, никто пока предложить не смог.
Первая ласточка в области применения рекурсивного самоулучшения к языковым моделям. Пока это относится в основном к коду, который используется для вызова LLM, но идея очень интересная. По ссылке можно почитать обзор разных подходов к рекурсивной оптимизации и улучшению ИИ систем.

Работает так:
1. Пользователь закладывает цель в систему
2. LLM многократно промтит сама себя и генерирует код для решения задачи
3. Выбирает лучшие из получившихся решений
4. Оценивает эффективность
5. Запускает новый раунд "самоулучшения", и так пока не дойдет до заданного лимита итераций

Это пока сыроватая, но крайне мощная идея. Куда интереснее будет, когда самоулучшаться начнет сама нейронка или даже её архитектура. Вот будет весело: если человекам дойти от GPT-3 до GPT-4 нужен год, но нейронке (given enough compute) на такой же скачок производительности вполне может хватить 500 миллисекунд.

P.S. Сегодня будет вебинар про то как делать enterprise-ready (корпоративных, бизнесовых) ИИ агентов с вашими данными. Будет много про кейсы использования, архитектуру и конкретные лайфхаки реализации. Регистрация в луме — https://lu.ma/codextown — или в Boosty.
Тут посмотрите что подвезли.

Я вообще был жутко скептически настроен в плане наличия адекватного контента про ИИ в русском телеграме, но у Сергея просто чумовой канал. Он невероятно крут в повествовании и идеях. Абсолютно заслуженный лидер среди всех каналов про ИИ. Даже не хуже твиттера!
​​«Ловушка Гудхарта» для AGI
«Революция ChatGPT», которая произошла в 2023, резко сократила прогнозные оценки экспертов сроков, отделяющих нас от создания искусственного интеллекта, ни в чем интеллектуально не уступающего никому из людей (AGI). При этом, как это ни парадоксально, но существующие методы тестирования пока не способны хоть с какой-то достоверностью диагностировать достижение ИИ-системами уровня AGI. В настоящей работе обсуждается вопрос преодоления проблемы несовершенства современных способов тестирования ИИ-систем. В частности, излагается гипотеза о принципиальной невозможности решения проблемы обнаружения AGI, как с помощью психометрических тестов, так и методов оценки способности машин имитировать ответы людей, из-за так называемой «ловушки Гудхарта» для AGI. Рассмотрен ряд предложений по обходу «ловушки Гудхарта» для AGI способами, предлагаемыми в новейших исследовательских работах, с учетом первых результатов произошедшей «революции ChatGPT». В последней части статьи сформулирована связка из трех эвристических гипотез, позволяющих, в случае их верности, кардинально решить проблему «ловушки Гудхарта» для AGI и тем самым стать геймченджером на пути создания AGI.

Этот текст - аннотация моего нового лонгрида “«Ловушка Гудхарта» для AGI: проблема сравнительного анализа искусственного интеллекта и интеллекта человека“. Он родился в результате моей попытки более строго и методичного анализа вопросов, рассмотрение которых было начато в предыдущем лонгриде «Фиаско 2023». Итогом стал лонглонгрид со списком ссылок в 50+ работ. И потому местом его публикации на сей раз стал журнал “Ученые записки Института психологии Российской академии наук“.

Что может мотивировать читателя на получасовое чтение статьи о бесперспективности большинства существующих подходов к тестированию ИИ и о гипотезе возможного выхода из этого тупика?

Помимо чисто исследовательского любопытства, такой мотивацией могло бы стать понимание следующей логики из трех пунктов.
1. Направления и методы дальнейшего развития технологий ИИ будут в значительной мере определяться национальным и глобальным регулированием разработок и внедрения систем ИИ.
2. Ключевым компонентом такого регулирования станет оценка когнитивных и мыслительных способностей новых систем ИИ.
3. Иными способами оценки, чем экспериментальное тестирование, современная наука не располагает.

И если эта логика верна – вопрос о способах тестирования ИИ систем, позволяющих достоверно фиксировать приближение их интеллектуального уровня к AGI, становится важнейшим вопросом для человечества.
А раз так, то может стоит на него потратить целых полчаса вашего времени?

#ИИ #AGI #Вызовы21века
2024/10/02 22:31:19
Back to Top
HTML Embed Code: