В этой статье я расскажу, как использовать логистическую регрессию в Python. Как мы знаем, логистическую регрессию можно использовать для задач классификации. Для бинарной классификации мы получим вероятности для класса «0» и для класса «1». Здесь я представлю его, используя набор данных iris из библиотеки scikit-learn.

Исходный код, используемый в этой статье, можно найти по адресу https://github.com/la60312/machine_learning_tutorial/blob/main/logistic_regresion.ipynb.

Загрузите набор данных радужной оболочки

Сначала мы загружаем набор данных радужной оболочки и распечатываем функции и имена целей. Здесь у нас есть четыре функции и три класса.

Отфильтровать данные по объекту одного измерения

Чтобы визуализировать вероятность логистической регрессии в двумерной фигуре с бинарной классификацией, мы сохраняем только одну характеристику «ширина лепестка» и отфильтровываем третий класс.

Тренируйте логистическую регрессию

Обучите логистическую регрессию с одномерной функцией, чтобы классифицировать «сетозу» и «лишай».

Вероятность сюжета

Здесь мы видим, что граница решения составляет около 0,7.

Классификация с двумя признаками

Здесь мы получаем две функции из набора данных радужной оболочки и выполняем логистическую регрессию. Далее мы получаем параметр модели для рисования границы решения.

Постройте границу решения в двумерном пространстве

Мы наносим точки данных в двумерном пространстве (длина лепестка и ширина лепестка). Здесь мы видим, что два класса идеально разделены границей решения.

Краткое содержание

В этой статье мы можем использовать логистическую регрессию для решения проблемы классификации. Мы также могли бы получить вероятность для каждого класса и узнать границу решения.

Исходный код, используемый в этой статье, можно найти по адресу https://github.com/la60312/machine_learning_tutorial/blob/main/logistic_regresion.ipynb.