В этой статье я расскажу, как использовать логистическую регрессию в Python. Как мы знаем, логистическую регрессию можно использовать для задач классификации. Для бинарной классификации мы получим вероятности для класса «0» и для класса «1». Здесь я представлю его, используя набор данных iris из библиотеки scikit-learn.
Исходный код, используемый в этой статье, можно найти по адресу https://github.com/la60312/machine_learning_tutorial/blob/main/logistic_regresion.ipynb.
Загрузите набор данных радужной оболочки
Сначала мы загружаем набор данных радужной оболочки и распечатываем функции и имена целей. Здесь у нас есть четыре функции и три класса.
Отфильтровать данные по объекту одного измерения
Чтобы визуализировать вероятность логистической регрессии в двумерной фигуре с бинарной классификацией, мы сохраняем только одну характеристику «ширина лепестка» и отфильтровываем третий класс.
Тренируйте логистическую регрессию
Обучите логистическую регрессию с одномерной функцией, чтобы классифицировать «сетозу» и «лишай».
Вероятность сюжета
Здесь мы видим, что граница решения составляет около 0,7.
Классификация с двумя признаками
Здесь мы получаем две функции из набора данных радужной оболочки и выполняем логистическую регрессию. Далее мы получаем параметр модели для рисования границы решения.
Постройте границу решения в двумерном пространстве
Мы наносим точки данных в двумерном пространстве (длина лепестка и ширина лепестка). Здесь мы видим, что два класса идеально разделены границей решения.
Краткое содержание
В этой статье мы можем использовать логистическую регрессию для решения проблемы классификации. Мы также могли бы получить вероятность для каждого класса и узнать границу решения.
Исходный код, используемый в этой статье, можно найти по адресу https://github.com/la60312/machine_learning_tutorial/blob/main/logistic_regresion.ipynb.