Telegram Web Link
📈 Стать аналитиком Big Data: пошаговое руководство 2024

Big Data — это наборы данных очень больших размеров, которые также характеризуются многообразием и высокой скоростью обновления. Аналитики больших данных находят и исследуют в них закономерности с помощью специальных программных средств.

В нашей обновлённой статье рассказываем, какие знания, онлайн-курсы, подкасты и книги помогут начать карьеру в сфере Big Data без специального образования🧑‍🎓

🔗 Читать статью
🔗 Зеркало
🤖 Напоминаем, что у нас есть еженедельная email-рассылка, посвященная последним новостям и тенденциям в мире искусственного интеллекта.

В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги

👉Подписаться👈
За что отвечает температура в softmax?

Softmax используется для перевода логитов (сырых выходов модели) в вероятности. То есть она преобразует изначальный вектор чисел в вектор значений, которые в сумме не превышают единицу. Это позволяет интерпретировать выходы модели как вероятности принадлежности к различным классам.

Однако есть небольшая проблема. Значения на выходном слое могут быть очень разнообразными. И как следствие после применения слоя softmax можно получить распределение вероятностей, где большое ненормализированное значение будет иметь наибольшую вероятность. В таких задачах, как генерация текста, это означает, что модель будет всегда выбирать только самые ожидаемые слова. Регулировать эту ситуацию позволяет температура.

Каждое значение модели просто делится на температуру. Когда температура низкая, модель даёт более уверенные ответы. Когда высокая — менее уверенные.

#глубокое_обучение
⚡️Proglib запускает канал про ИИ для генерации звука

Там мы будем рассказывать про все существующие нейросети, которые генерируют музыку и голос — с пошаговыми инструкциями, инструментами и лайфхаками.

⭐️генерация голоса и музыки
⭐️замена и перевод речи
⭐️распознавание звуков

👉Подписывайтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
Представьте, что вы моделируете окупаемость инвестиций (ROI). Вы решили использовать простую линейную регрессионную модель, чтобы оценить, приведёт ли увеличение затрат к увеличению выручки. Cкорректированный R-квадрат равен 0.72, а p-значение составляет 1.09e-9. Какую часть дисперсии данных объясняет ваша модель и можно ли назвать результат значимым?

Значение R-квадрата является статистической мерой того, насколько близко данные находятся к линии регрессии. Значение, равное 0.72, указывает на то, что модель объясняет 72% дисперсии.

Что касается значимости статистического результата, то обычно устанавливают значимость на уровне 95% или даже 98%. Небольшое p-значение (обычно меньше или равно 0.05, что соответствует 95% уверенности) указывает на статистическую значимость. Поскольку данное p-значение меньше этого уровня, результат можно считать значимым.

#машинное_обучение
Разработайте рекомендательную систему для приложения

Когда вам задают такой вопрос, в первую очередь вы должны сами задать уточняющие вопросы. Вот возможный сценарий:

▪️Какое это приложение?
Это приложение для обмена фотографиями.
▪️Какая у нас целевая аудитория?
У нас нет специфической аудитории. Это продукт для глобального рынка.
▪️Могу ли я в таком случае назвать целью рекомендательной системы вовлечение пользователей?
Да.

Алгоритм действий:
1. Определяемся с возможными ограничениями на показ фото в ленте. Например, у нас могут быть настройки, позволяющие пользователям делиться фотографиями только со своими контактами.
2. Все фото, которые соответствуют условиям, попадают в пул снимков, доступных для рекомендаций.
3. Далее вступает в работу алгоритм рекомендаций, который определяет, какие фото показывать и в каком порядке. На ранних этапах приложения можно показывать все фотографии в бесконечном скролле. Затем можно использовать алгоритм на основе правил, а после переключиться на алгоритм, который будет показывать фото в таком порядке, чтобы оптимизировать время просмотра. Таким образом, время просмотра будет главным показателем.

Вот какие признаки могут использоваться для построения модели:
▫️Тип фото, с которым пользователь взаимодействует максимально;
▫️Близость отношений между отправителем и зрителем;
▫️Свежесть/актуальность фото;
▫️Показатели вовлечённости (комментарии, лайки и т.д.).

#машинное_обучение
Что вы знаете про биномиальное распределение? Зачем оно нужно в Data Science?

Биномиальное распределение в основном моделирует количество успешных исходов в фиксированном числе испытаний. В целом, позволяет характеризовать испытания с помощью двух параметров n и p, представляющих количество испытаний и вероятность успеха в одном испытании соответственно.

На практике биномиальное распределение можно использовать для определения вероятности определённого числа успехов, таких как продажи, за определённый период для нового продукта. Кроме того, биномиальное распределение помогает понять вероятностное распределение числа клиентов, обслуживаемых в течение временного интервала.

#статистика
Можете ли вы объяснить, как GAN генерируют изображения?

Обычная генеративно-состязательная сеть (Generative Adversarial Networks, GAN) состоит из двух основных компонентов: генератор и дискриминатор. Первая генерирует новые данные, стремясь создать изображения, которые выглядят как настоящие. Вторая пытается отличить сгенерированные изображения от реальных.

На вход генератора подается случайный вектор (шум). Генератор преобразует этот вектор в изображение, используя серию слоёв, которые постепенно увеличивают размерность данных и добавляют детали. На выходе получается изображение, которое затем оценивается дискриминатором. Цель дискриминатора — правильно классифицировать изображения как реальные или нет. Если он ошибается, то генератор получает сигнал, как улучшить свои изображения.

#глубокое_обучение
Что вы знаете про фреймворк Optuna? Зачем он нужен?

Optuna — это фреймворк для автоматической оптимизации гиперпараметров в задачах машинного обучения. Он использует Gaussian Process-Based Sampler для байесовской оптимизации, который основывается на гауссовских процессах. Помимо этого, Optuna применяет алгоритмы для ранней остановки бесперспективных экспериментов.

В контексте фреймворка употребляются два понятия:
▪️Study — оптимизация на базе целевой функции
▪️Trial — одно выполнение целевой функции.

Также Optuna позволяет легко распараллелить процесс поиска гиперпараметров. Для отслеживания процесса можно использовать dashboard с визуализацией обучения в реальном времени.

🔗 Ссылка на документацию

#машинное_обучение
Выберите возможный эффект, который последует за увеличением минимального количества примеров на лист в дереве решений:
Anonymous Quiz
43%
Размер дерева решений увеличивается
57%
Размер дерева решений уменьшается
Объясните механизм multihead attention

Механизм attention используется в трансформерах. Он позволяет заставить модель «обращать внимание» на важные слова в предложении. Multihead attention расширяет эту идею, используя несколько «голов» внимания для одновременного анализа информации как бы с разных точек зрения. Каждая «голова» работает независимо, позволяя модели захватывать разнообразные взаимосвязи и зависимости в данных.

На практике мы делим весь эмбеддинг и прогоняем каждую часть через разные матрицы. Так мы получаем разнообразные представления. Плюсом к этому идёт возможность распараллелить процесс. В итоге результаты всех независимых механизмов внимания объединяются и проходят через линейный слой для получения финального представления.

#глубокое_обучение
#NLP
🧑‍💻 Статьи для IT: как объяснять и распространять значимые идеи

Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.

Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.

Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.

👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
У вас есть данные о продолжительности звонков в колл-центр. Как может выглядеть распределение? Как вы можете проверить свои предположения?

Для начала проведём предобработку данных. Заполнять пропуски в них мы не будем. Нулевые значения достаточно просто удалить.

Наше предположение состоит в том, что данные должны следовать логарифмически нормальному распределению. Можно использовать график квантиль-квантиль (Q-Q). Нам нужно выбрать набор интервалов для квантилей. На графике точка (x, y) будет соответствовать одному из квантилей второго распределения (координата y), нанесённому на тот же квантиль первого распределения (координата x). Таким образом, линия является кривой с параметром, обозначающим номер интервала для квантиля.

Если сравниваемые два распределения похожи, точки на графике Q — Q будут приблизительно лежать на линии y = x. Если распределения линейно связаны, точки на графике Q — Q будут приблизительно лежать на линии, но не обязательно на линии y = x.

#статистика
В чём разница между обнаружением объектов (object detection) и сегментацией изображения?

И то, и другое — задачи компьютерного зрения, которые предполагают анализ и понимание содержания изображений. Однако разница между ними есть.

▪️Обнаружение объектов.

Цель заключается в идентификации и локализации объектов и представлении их в виде ограничивающих рамок с соответствующими метками. Используется, например, в бесплотных автомобилях для обнаружения пешеходов и транспортных средств.

▪️Сегментация изображений.

Здесь цель — разделить изображение на несколько областей, или сегментов. Обеспечивает постановку меток на уровне пикселей для всего изображения. Используется в задачах, требующих анализа на уровне пикселей, таких как диагностика по медицинским изображениям.

#глубокое_обучение
#компьютерное_зрение
Что делать, если AUC < 0.5?

В случае бинарной классификации AUC эквивалентна вероятности того, что классификатор присвоит большее значение положительному классу (класс 1) по сравнению с отрицательным (класс 0). Если AUC < 0.5, это означает, что модель предсказывает хуже случайного угадывания, однако инвертирование предсказанных значений может сделать модель полезной, так как она фактически «ошибается» в противоположную сторону.

#машинное_обучение
Чем сезонность отличается от тренда во временных рядах?

Оба этих термина возникают при декомпозиции временного ряда, то есть разложении его на составляющие.

▪️Тренд характеризует плавное долгосрочное изменение временного ряда. Он может быть восходящим, нисходящим или постоянным.
▪️Сезонность отображает циклические изменения временного ряда с постоянным периодом.

Рассмотрим на примере. Допустим, у нас есть данные по продажам помидоров в сети супермаркетов. Мы можем заметить, что на протяжении нескольких лет наблюдается общий рост продаж (тренд), а внутри каждого года есть пики и спады, связанные с сезонами (сезонность). Так, летом продажи могут увеличиваться из-за высокого спроса и предложения, а зимой — снижаться.

#машинное_обучение
Коротко опишите процесс обучения нейронной сети

Нейронные сети принимают обучающие данные и веса и выдают предсказания и значения функции потерь. В процессе обучения на каждой итерации выбирается небольшой пакет обучающих данных, батч. Каждый батч проходит через цикл обучения, который выглядит следующим образом:

▪️Прямой проход.
— Вычисляется взвешенная сумма входов в каждом нейроне.
— К этой сумме применяется функция активации.
— Предсказывается выход и вычисляется разницу между предсказанным и реальным значением.

▪️Обратный проход.
— Вычисляется градиент функции потерь по отношению к весам, используя метод обратного распространения ошибки (backpropagation).
— Градиенты используются для обновления весов.

Эти шаги повторяются до тех пор, пока не будет достигнут какой-нибудь критерий остановки, например заданное количество эпох или достижение желаемой точности на валидационном наборе данных.

#глубокое_обучение
⚡️Proglib запускает канал про ИИ в сфере видео

Вот несколько топовых постов за последнее время:

⭐️Инструмент, который сам делает короткие вертикальные видео из ваших длинных роликов, например, на ютуб
⭐️Подборка нейро-генераторов видео с пробным периодом
⭐️Анонс ИИ-«нетфликса», который будет штамповать вам мультики по запросам

👉Подписывайтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
Почему метод опорных векторов (SVM) так называется?

Допустим, перед нами стоит задача бинарной классификации. Тогда главная цель классификатора SVM — найти уравнение разделяющей гиперплоскости в пространстве данных, которая бы разделила два класса неким оптимальным образом. У обученной модели все объекты, попадающие по одну сторону от построенной гиперплоскости, будут предсказываться как первый класс, а объекты, попадающие по другую сторону — как второй класс.

При обучении SVM веса должны быть подобраны таким образом, чтобы объекты классов лежали как можно дальше от разделяющей гиперплоскости. Так, алгоритм максимизирует зазор (margin) между гиперплоскостью и объектами классов, которые расположены ближе всего к ней. Эти объекты и называют опорными векторами.

#машинное_обучение
2024/09/29 18:13:50
Back to Top
HTML Embed Code: