Эй, трейдеры и аналитики! Разберемся, как ML меняет правила игры.
Актуальность прогнозирования цен в современных реалиях
В мире волатильности, предсказать цену – значит, выжить.
ML-модели, обученные на исторических данных, могут выявлять скрытые закономерности, недоступные человеческому глазу. Scikit-learn предоставляет мощные инструменты для этого: от линейной регрессии до сложных ансамблевых методов. Это позволяет компаниям лучше управлять рисками и получать выгоду от колебаний рынка. Предсказание цены даёт конкурентное преимущество.
Обзор применения машинного обучения в финансовом прогнозировании
ML в финансах – это не просто тренд, а необходимость.
Он используется для прогнозирования цен на акции, криптовалюты, товары. Scikit-learn упрощает процесс создания моделей для анализа временных рядов, выявления корреляций и предсказания трендов. Модели машинного обучения помогают автоматизировать торговые стратегии, выявлять мошеннические транзакции и оценивать кредитные риски. Компании увеличивают прибыль, автоматизируя процессы.
Обзор Scikit-learn для анализа временных рядов и прогнозирования цен
Разберем Scikit-learn: ваш инструмент для анализа и прогнозирования временных рядов!
Преимущества использования Scikit-learn в задачах прогнозирования
Scikit-learn – это простота и эффективность. Интуитивно понятный API, огромный выбор алгоритмов (линейные модели, деревья решений, SVM), кросс-валидация и оптимизация параметров “из коробки”. Библиотека хорошо интегрируется с другими инструментами Python (NumPy, Pandas). Это позволяет быстро прототипировать и развертывать модели. Документация отличная, сообщество активное. Все это делает Scikit-learn незаменимым инструментом для прогнозирования.
Основные модули Scikit-learn, используемые для анализа временных рядов
Для временных рядов в Scikit-learn важны `linear_model` (регрессия), `tree` (деревья решений), `ensemble` (RandomForest, GradientBoosting). `preprocessing` помогает масштабировать данные, а `model_selection` – оценивать модели. Модуль `metrics` предоставляет метрики для оценки качества прогнозов (MAE, MSE, RMSE). Scikit-learn идеален для быстрого старта, но для сложного анализа временных рядов может потребоваться дополнить его другими библиотеками.
Обработка и подготовка данных для прогнозирования цен в Scikit-learn
Данные – основа прогнозов! Правильная обработка – залог успеха модели ML.
Сбор и очистка исторических данных
Первый шаг – данные! Собираем исторические данные о ценах из надежных источников (биржи, API). Проверяем на пропуски, выбросы, дубликаты. Пропуски можно заполнить средним значением, медианой или удалить строки. Выбросы обрабатываем, например, с помощью IQR (межквартильный размах). Качественные данные – основа успешного прогноза. Обязательно проверяйте консистентность данных перед использованием в моделях.
Преобразование данных: масштабирование и нормализация
Масштабирование и нормализация важны для эффективной работы моделей. StandardScaler (Scikit-learn) приводит данные к нулевому среднему и единичной дисперсии. MinMaxScaler масштабирует значения в диапазон [0, 1]. RobustScaler устойчив к выбросам. Выбор метода зависит от данных и модели. Важно помнить: применяем трансформацию к обучающей выборке и используем ее для преобразования тестовой. Иначе получим “data leakage”!
Выбор признаков для прогнозирования цен
Правильные признаки – половина успеха! Разберемся, что “скормить” модели, чтобы был толк.
Типы признаков: технические индикаторы, фундаментальные данные, внешние факторы
Признаки бывают разные: технические индикаторы (RSI, MACD), фундаментальные данные (отчетность компаний), внешние факторы (новости, экономические показатели). Технические индикаторы основаны на исторических ценах. Фундаментальные отражают “здоровье” компании. Внешние факторы влияют на рынок в целом. Комбинируя эти типы, можно построить более точные модели. Главное – не перегружать модель лишними данными!
Методы отбора наиболее значимых признаков
Отбор признаков важен для уменьшения переобучения и повышения производительности. Scikit-learn предлагает SelectKBest (выбор K лучших признаков), SelectFromModel (выбор на основе важности признаков в модели) и RFE (рекурсивное исключение признаков). Можно использовать статистические методы (корреляция, ANOVA). Важно: отбор признаков нужно проводить только на обучающей выборке, чтобы избежать утечки данных. Лучший метод – тот, который дает наилучший результат на кросс-валидации.
Алгоритмы машинного обучения для прогнозирования фондового рынка и криптовалют
Выбор алгоритма – ключевой момент! Какие модели лучше всего предсказывают цены?
Линейные модели (Linear Regression, Ridge Regression, Lasso)
Линейные модели просты и быстры. Linear Regression строит линейную зависимость между признаками и целевой переменной. Ridge и Lasso добавляют регуляризацию, чтобы избежать переобучения. Ridge (L2 регуляризация) уменьшает величину коэффициентов, Lasso (L1 регуляризация) обнуляет некоторые из них, отбирая наиболее важные признаки. Линейные модели хороши для старта, но редко дают высокую точность на сложных данных.
Методы классификации (Logistic Regression, Support Vector Machines)
Классификация предсказывает категорию (рост, падение, без изменений). Logistic Regression использует сигмоидную функцию для предсказания вероятности принадлежности к классу. Support Vector Machines (SVM) строит оптимальную разделяющую гиперплоскость между классами. SVM может использовать различные ядра (линейное, полиномиальное, RBF) для работы с нелинейными данными. Классификация полезна для разработки торговых стратегий, основанных на сигналах.
Деревья решений и ансамблевые методы (Random Forest, Gradient Boosting)
Деревья решений разбивают данные на основе признаков. Random Forest строит много деревьев на случайных подмножествах данных и усредняет их прогнозы, уменьшая переобучение. Gradient Boosting последовательно строит деревья, каждое из которых исправляет ошибки предыдущего. Ансамблевые методы часто показывают высокую точность, но требуют тщательной настройки параметров. Важно помнить про feature importance, которую можно использовать для отбора признаков.
Реализация алгоритмов машинного обучения для прогнозирования цен с использованием Scikit-learn
Переходим к практике! Пишем код, обучаем модели, делаем прогнозы с Scikit-learn.
Примеры кода для различных моделей
Реализация Linear Regression: `from sklearn.linear_model import LinearRegression; model = LinearRegression; model.fit(X_train, y_train); predictions = model.predict(X_test)`. Random Forest: `from sklearn.ensemble import RandomForestRegressor; model = RandomForestRegressor; model.fit(X_train, y_train); predictions = model.predict(X_test)`. Logistic Regression: `from sklearn.linear_model import LogisticRegression; model = LogisticRegression; model.fit(X_train, y_train); predictions = model.predict(X_test)`. Не забудьте про предобработку и разделение на train/test!
Оптимизация параметров моделей прогнозирования цен в Scikit-learn
Оптимизация – ключ к высокой точности. Используйте GridSearchCV или RandomizedSearchCV для поиска лучших параметров. GridSearchCV перебирает все комбинации параметров, RandomizedSearchCV – случайное подмножество. Определите диапазоны параметров и метрику оценки. Пример: `from sklearn.model_selection import GridSearchCV; param_grid = {‘n_estimators’: [100, 200, 500], ‘max_depth’: [5, 10, 15]}; grid_search = GridSearchCV(RandomForestRegressor, param_grid, scoring=’neg_mean_squared_error’); grid_search.fit(X_train, y_train)`. Лучшие параметры – `grid_search.best_params_`.
Оценка эффективности моделей прогнозирования цен
Как понять, что модель работает? Метрики – наши верные помощники в оценке качества.
Метрики оценки регрессионных моделей (MAE, MSE, RMSE, R-squared)
MAE (Mean Absolute Error) – средняя абсолютная ошибка. MSE (Mean Squared Error) – средняя квадратичная ошибка. RMSE (Root Mean Squared Error) – корень из MSE, интерпретируется проще. R-squared – коэффициент детерминации, показывает, какую долю дисперсии объясняет модель (от 0 до 1). Чем ближе R-squared к 1, тем лучше. Выбор метрики зависит от задачи и данных. Используйте `from sklearn.metrics import mean_absolute_error, mean_squared_error, r2_score`.
Метрики оценки классификационных моделей (Accuracy, Precision, Recall, F1-score)
Accuracy – доля правильных ответов. Precision – доля правильно предсказанных положительных ответов среди всех предсказанных положительных. Recall – доля правильно предсказанных положительных ответов среди всех фактических положительных. F1-score – гармоническое среднее между precision и recall. Выбор метрики зависит от задачи и баланса классов. Используйте `from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score`. Confusion matrix поможет визуализировать ошибки.
Сравнение различных моделей прогнозирования цен в Scikit-learn
Какая модель лучше? Сравниваем, анализируем, выбираем оптимальный вариант для вас.
Анализ преимуществ и недостатков различных моделей
Линейные модели просты, но не учитывают сложные зависимости. Деревья решений чувствительны к переобучению. Random Forest и Gradient Boosting более устойчивы, но требуют настройки. SVM могут хорошо работать на сложных данных, но требовательны к вычислительным ресурсам. Выбор зависит от данных, задачи и доступных ресурсов. Важно помнить: нет идеальной модели для всех случаев. Экспериментируйте и сравнивайте!
Практические рекомендации по выбору оптимальной модели для конкретной задачи
Начните с простых моделей (Linear Regression, Logistic Regression). Если точность недостаточна, переходите к более сложным (Random Forest, Gradient Boosting, SVM). Используйте кросс-валидацию для оценки моделей. Обращайте внимание на метрики, соответствующие задаче. Не забывайте про интерпретируемость модели. Если важна скорость обучения и предсказания, выбирайте более простые модели. Оптимизируйте параметры моделей с помощью GridSearchCV или RandomizedSearchCV. Помните, что лучший выбор – это баланс между точностью и сложностью.
Классификация ценовых движений с помощью Scikit-learn
Прогнозируем направление движения цены! Используем классификацию для торговли.
Преобразование задачи прогнозирования цены в задачу классификации
Вместо предсказания конкретной цены, прогнозируем направление: рост, падение или без изменений. Создаем целевую переменную на основе разницы между текущей и предыдущей ценой. Если разница положительная – класс “рост”, отрицательная – “падение”, нулевая – “без изменений”. Можно задать пороги для определения классов. Пример: если цена изменилась более чем на 1%, то “рост” или “падение”. Это упрощает задачу и позволяет использовать алгоритмы классификации.
Применение алгоритмов классификации для определения направления движения цены
Используем Logistic Regression, SVM, Random Forest, Gradient Boosting для классификации направлений движения цены. Обучаем модель на исторических данных с признаками и целевой переменной (рост, падение, без изменений). Оцениваем модель с помощью accuracy, precision, recall, f1-score. На основе прогнозов строим торговые стратегии. Например, если модель предсказывает “рост”, покупаем актив, если “падение” – продаем. Важно учитывать комиссии и проскальзывания.
Модели машинного обучения для торговли: примеры и стратегии
Как заработать с помощью ML? Разрабатываем торговые стратегии и автоматизируем торговлю.
Разработка торговых стратегий на основе прогнозов моделей машинного обучения
Торговая стратегия определяет правила принятия решений о покупке и продаже активов. На основе прогнозов моделей ML можно строить различные стратегии. Пример: “следуй за трендом” – покупаем, когда модель предсказывает рост цены, и продаем, когда предсказывает падение. Можно добавлять фильтры (например, минимальный порог вероятности) для уменьшения количества ложных сигналов. Важно тестировать стратегии на исторических данных (backtesting) и учитывать риски.
Примеры реализации автоматизированных торговых систем
Автоматизированные торговые системы (ATS) позволяют торговать без участия человека. ATS получают данные о ценах, формируют прогнозы с помощью моделей ML, принимают решения о покупке и продаже и отправляют ордера на биржу. Для реализации ATS нужны API брокера, библиотеки для работы с данными и моделями ML (Scikit-learn). Важно обеспечить надежность системы и защиту от сбоев. ATS требуют постоянного мониторинга и оптимизации.
Использование исторических данных для прогнозирования цен
История повторяется? Анализируем прошлое, чтобы предсказать будущее с помощью ML.
Анализ временных рядов и выявление закономерностей
Анализ временных рядов позволяет выявлять тренды, сезонность, цикличность. Используйте инструменты, такие как автокорреляция и частичная автокорреляция (ACF, PACF). Преобразуйте данные, чтобы сделать их стационарными (например, дифференцирование). Рассчитывайте статистические характеристики (среднее, стандартное отклонение). Визуализируйте данные для лучшего понимания. Понимание закономерностей поможет выбрать подходящую модель ML и признаки.
Применение методов машинного обучения для экстраполяции исторических данных
Экстраполяция – это продолжение временного ряда на основе исторических данных. Используйте модели ML для экстраполяции. Обучите модель на исторических данных и предскажите будущие значения. Учитывайте uncertainty прогнозов. Экстраполяция может быть полезна для краткосрочного прогнозирования, но для долгосрочного прогнозирования она менее надежна. Важно оценивать качество экстраполяции на отложенной выборке.
Практические примеры прогнозирования цен на акции и криптовалюты с помощью машинного обучения
Реальные кейсы! Разбираем примеры успешного применения ML в финансах и трейдинге.
Кейсы успешного применения машинного обучения в финансовом прогнозировании
Многие хедж-фонды и трейдинговые компании используют ML для прогнозирования цен на акции и криптовалюты. Например, Renaissance Technologies использует сложные модели для торговли акциями. Numerai – платформа, где дата-сайентисты разрабатывают модели для прогнозирования фондового рынка. JPMorgan Chase использует ML для обнаружения мошеннических транзакций. Успех зависит от качества данных, выбора моделей и управления рисками.
Анализ рисков и ограничений использования моделей машинного обучения
Модели ML не идеальны. Они могут переобучаться на исторических данных и давать плохие прогнозы в будущем. Рынок может измениться, и модель перестанет работать. Важно учитывать риски и не полагаться только на прогнозы моделей. Используйте stop-loss ордера для ограничения убытков. Тестируйте стратегии на исторических данных (backtesting) и постоянно мониторьте работу моделей. Помните, что ML – это инструмент, а не волшебная палочка.
Что ждет нас в будущем? ML в финансах – это только начало! Курс на развитие.
Обзор текущих тенденций и будущих возможностей
В будущем ML будет играть все более важную роль в финансовом прогнозировании. Развитие deep learning и reinforcement learning открывает новые возможности. Появляются новые источники данных (альтернативные данные, социальные сети). Автоматизация торговых стратегий будет становиться все более распространенной. Важно следить за новыми тенденциями и развивать свои навыки в ML. Помните, что будущее за теми, кто умеет работать с данными!
Рекомендации для дальнейшего изучения и применения машинного обучения в трейдинге
Изучайте теорию и практику ML. Начните с основ (линейная регрессия, логистическая регрессия, деревья решений). Затем переходите к более сложным моделям (Random Forest, Gradient Boosting, SVM, neural networks). Читайте научные статьи и блоги. Участвуйте в соревнованиях по data science. Практикуйтесь на реальных данных. Разрабатывайте и тестируйте свои торговые стратегии. Не бойтесь экспериментировать и учиться на своих ошибках. Помните, что успех приходит с опытом!
Вот таблица, которая поможет вам сориентироваться в мире моделей машинного обучения для прогнозирования цен. В ней собраны основные характеристики, преимущества и недостатки, а также рекомендации по применению.
Модель | Тип | Преимущества | Недостатки | Рекомендации |
---|---|---|---|---|
Linear Regression | Регрессия | Простота, скорость обучения, интерпретируемость | Не учитывает сложные зависимости, чувствительность к выбросам | Хороша для старта, если данные линейны |
Ridge Regression | Регрессия | Устойчивость к переобучению (L2 регуляризация) | Требуется подбор параметра регуляризации | Если в данных много коррелирующих признаков |
Lasso Regression | Регрессия | Отбор наиболее значимых признаков (L1 регуляризация) | Требуется подбор параметра регуляризации, может обнулить важные признаки | Если нужно уменьшить количество признаков |
Logistic Regression | Классификация | Простота, интерпретируемость, предсказание вероятностей | Линейные границы классов | Для задачи классификации направлений движения цены |
Support Vector Machine (SVM) | Классификация/Регрессия | Работает с нелинейными данными (ядра), высокая точность | Требовательность к вычислительным ресурсам, сложная настройка | Если данные нелинейны и важна высокая точность |
Random Forest | Регрессия/Классификация | Устойчивость к переобучению, высокая точность, оценка важности признаков | Сложная интерпретация, требует настройки | Один из лучших вариантов “из коробки” |
Gradient Boosting | Регрессия/Классификация | Высокая точность, возможность учета сложных зависимостей | Сложная настройка, риск переобучения | Если нужна максимальная точность, но готовы к сложной настройке |
Представляю вашему вниманию сравнительную таблицу метрик оценки моделей машинного обучения, чтобы вы могли выбрать наиболее подходящую для вашей задачи прогнозирования цен. Эта таблица поможет вам понять, какие метрики важны для регрессионных и классификационных моделей.
Метрика | Тип модели | Описание | Преимущества | Недостатки | Scikit-learn |
---|---|---|---|---|---|
MAE (Mean Absolute Error) | Регрессия | Средняя абсолютная ошибка | Простота интерпретации | Нечувствительна к большим ошибкам | mean_absolute_error |
MSE (Mean Squared Error) | Регрессия | Средняя квадратичная ошибка | Чувствительна к большим ошибкам | Менее интерпретируема, чем MAE | mean_squared_error |
RMSE (Root Mean Squared Error) | Регрессия | Корень из MSE | Интерпретируема в тех же единицах, что и целевая переменная | Чувствительна к большим ошибкам | mean_squared_error (с последующим извлечением корня) |
R-squared | Регрессия | Коэффициент детерминации | Показывает долю объясненной дисперсии | Может быть обманчиво высок при добавлении новых признаков | r2_score |
Accuracy | Классификация | Доля правильных ответов | Простота интерпретации | Неинформативна при несбалансированных классах | accuracy_score |
Precision | Классификация | Точность (доля правильно предсказанных положительных среди всех предсказанных положительных) | Важна, когда цена ложноположительной ошибки высока | Не учитывает ложноотрицательные ошибки | precision_score |
Recall | Классификация | Полнота (доля правильно предсказанных положительных среди всех фактических положительных) | Важна, когда важно не пропустить ни одного положительного случая | Не учитывает ложноположительные ошибки | recall_score |
F1-score | Классификация | Гармоническое среднее между Precision и Recall | Балансирует между Precision и Recall | Менее интерпретируема, чем Precision и Recall по отдельности | f1_score |
FAQ
Здесь собраны ответы на часто задаваемые вопросы по применению машинного обучения для прогнозирования цен с использованием Scikit-learn. Надеюсь, это поможет вам лучше понять тему.
- Вопрос: С чего начать изучение машинного обучения для прогнозирования цен?
- Ответ: Начните с основ Python, затем изучите библиотеки NumPy, Pandas и Scikit-learn. Попробуйте реализовать простые модели (Linear Regression, Logistic Regression) на исторических данных.
- Вопрос: Какие данные лучше всего использовать для прогнозирования цен?
- Ответ: Исторические данные о ценах, технические индикаторы, фундаментальные данные (если есть), внешние факторы (новости, экономические показатели). Важно, чтобы данные были качественными и надежными.
- Вопрос: Какую модель машинного обучения выбрать для прогнозирования цен?
- Ответ: Зависит от данных и задачи. Начните с простых моделей (Linear Regression, Logistic Regression). Если точность недостаточна, переходите к более сложным (Random Forest, Gradient Boosting, SVM).
- Вопрос: Как оценить качество модели машинного обучения?
- Ответ: Используйте метрики оценки, соответствующие задаче (MAE, MSE, RMSE, R-squared для регрессии, Accuracy, Precision, Recall, F1-score для классификации). Используйте кросс-валидацию для надежной оценки.
- Вопрос: Как избежать переобучения модели?
- Ответ: Используйте регуляризацию, отбор признаков, кросс-валидацию. Уменьшите сложность модели.
- Вопрос: Какие риски связаны с использованием машинного обучения для прогнозирования цен?
- Ответ: Модели могут переобучаться, рынок может измениться, данные могут быть некачественными. Важно учитывать риски и не полагаться только на прогнозы моделей.
- Вопрос: Где найти больше информации о машинном обучении и Scikit-learn?
- Ответ: Официальная документация Scikit-learn, научные статьи, блоги, онлайн-курсы, соревнования по data science.
Представляю вашему вниманию таблицу с примерами технических индикаторов, которые можно использовать в качестве признаков для моделей машинного обучения при прогнозировании цен. В таблице указаны формулы расчета, интерпретация и рекомендации по использованию.
Индикатор | Формула | Интерпретация | Рекомендации |
---|---|---|---|
Moving Average (MA) | Среднее значение цены за N периодов | Сглаживает ценовые колебания, показывает тренд | Использовать MA с разными периодами для выявления краткосрочных и долгосрочных трендов |
Relative Strength Index (RSI) | 100 – (100 / (1 + RS)), RS = Average Gain / Average Loss | Показывает перекупленность/перепроданность актива | RSI > 70 – перекупленность, RSI |
Moving Average Convergence Divergence (MACD) | MACD Line = 12-period EMA – 26-period EMA, Signal Line = 9-period EMA of MACD Line | Показывает схождение и расхождение скользящих средних, выявляет тренды и моменты разворота | Пересечение MACD Line и Signal Line может указывать на смену тренда. |
Bollinger Bands | Middle Band = 20-period SMA, Upper Band = Middle Band + 2 * Standard Deviation, Lower Band = Middle Band – 2 * Standard Deviation | Показывают волатильность рынка | Цена, касающаяся верхней полосы, может указывать на перекупленность, цена, касающаяся нижней полосы, может указывать на перепроданность. |
Stochastic Oscillator | %K = 100 * (Current Close – Lowest Low) / (Highest High – Lowest Low), %D = 3-period SMA of %K | Показывает положение текущей цены относительно диапазона цен за определенный период | %K и %D > 80 – перекупленность, %K и %D |
Представляю сравнительную таблицу различных методов отбора признаков в Scikit-learn, чтобы вы могли выбрать наиболее подходящий для вашей задачи прогнозирования цен. В таблице указаны особенности каждого метода, его преимущества и недостатки, а также примеры использования.
Метод отбора признаков | Описание | Преимущества | Недостатки | Scikit-learn |
---|---|---|---|---|
SelectKBest | Выбор K лучших признаков на основе статистических тестов (например, chi2, f_classif) | Простота использования, скорость работы | Не учитывает взаимосвязь между признаками, требует выбора статистического теста | SelectKBest |
SelectFromModel | Выбор признаков на основе важности признаков в модели (например, RandomForest, LogisticRegression) | Учитывает взаимосвязь между признаками, позволяет выбрать признаки, важные для конкретной модели | Зависит от выбора модели, требует настройки параметров модели | SelectFromModel |
RFE (Recursive Feature Elimination) | Рекурсивное исключение признаков с обучением модели на каждой итерации | Позволяет выбрать оптимальное подмножество признаков, учитывая их взаимосвязь | Требует больших вычислительных ресурсов, чем SelectKBest и SelectFromModel | RFE |
VarianceThreshold | Удаление признаков с низкой дисперсией | Простота использования, быстрое удаление неинформативных признаков | Не учитывает взаимосвязь между признаками, может удалить полезные признаки с низкой дисперсией | VarianceThreshold |
Mutual Information | Оценка зависимости между признаками и целевой переменной на основе взаимной информации | Позволяет выявить нелинейные зависимости между признаками и целевой переменной | Требует больших вычислительных ресурсов, чем SelectKBest | mutual_info_classif , mutual_info_regression |
Представляю сравнительную таблицу различных методов отбора признаков в Scikit-learn, чтобы вы могли выбрать наиболее подходящий для вашей задачи прогнозирования цен. В таблице указаны особенности каждого метода, его преимущества и недостатки, а также примеры использования.
Метод отбора признаков | Описание | Преимущества | Недостатки | Scikit-learn |
---|---|---|---|---|
SelectKBest | Выбор K лучших признаков на основе статистических тестов (например, chi2, f_classif) | Простота использования, скорость работы | Не учитывает взаимосвязь между признаками, требует выбора статистического теста | SelectKBest |
SelectFromModel | Выбор признаков на основе важности признаков в модели (например, RandomForest, LogisticRegression) | Учитывает взаимосвязь между признаками, позволяет выбрать признаки, важные для конкретной модели | Зависит от выбора модели, требует настройки параметров модели | SelectFromModel |
RFE (Recursive Feature Elimination) | Рекурсивное исключение признаков с обучением модели на каждой итерации | Позволяет выбрать оптимальное подмножество признаков, учитывая их взаимосвязь | Требует больших вычислительных ресурсов, чем SelectKBest и SelectFromModel | RFE |
VarianceThreshold | Удаление признаков с низкой дисперсией | Простота использования, быстрое удаление неинформативных признаков | Не учитывает взаимосвязь между признаками, может удалить полезные признаки с низкой дисперсией | VarianceThreshold |
Mutual Information | Оценка зависимости между признаками и целевой переменной на основе взаимной информации | Позволяет выявить нелинейные зависимости между признаками и целевой переменной | Требует больших вычислительных ресурсов, чем SelectKBest | mutual_info_classif , mutual_info_regression |