Упростите свою жизнь с помощью Python
Python, известный своей простотой и универсальностью, стал предпочтительным языком для автоматизации повседневных задач. В этой статье мы рассмотрим семь скриптов Python, предназначенных для упрощения вашей повседневной работы и экономии вашего драгоценного времени и усилий. Эти сценарии охватывают широкий спектр приложений, от управления файлами и просмотра веб-страниц до обработки данных и многого другого.
1. Организатор файлов
import os import shutil def organize_files(source_folder): for filename in os.listdir(source_folder): if os.path.isfile(os.path.join(source_folder, filename)): extension = filename.split('.')[-1].lower() if extension not in ('py', 'txt', 'pdf', 'jpg', 'png'): extension = 'miscellaneous' dest_folder = os.path.join(source_folder, extension) os.makedirs(dest_folder, exist_ok=True) shutil.move(os.path.join(source_folder, filename), os.path.join(dest_folder, filename)) source_folder = '/path/to/source/folder' organize_files(source_folder)
Этот сценарий предназначен для использования исходной папки в качестве входных данных и категоризации файлов в ней на основе их расширений файлов. Он сортирует файлы в отдельные каталоги, такие как «py» для файлов Python, «txt» для текстовых файлов, «pdf» для PDF-файлов, «jpg» и «png» для файлов изображений и «разное» для любых других типов файлов. Этот скрипт создает свободную от беспорядка среду, эффективно организуя файлы для легкого доступа и повышения производительности.
2. Веб-парсер
import requests import csv from bs4 import BeautifulSoup def web_scraper(url, output_file): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') data = [] for item in soup.find_all('div', class_='item'): title = item.find('h2').text.strip() description = item.find('p').text.strip() data.append({'Title': title, 'Description': description}) with open(output_file, 'w', newline='') as csvfile: fieldnames = ['Title', 'Description'] writer = csv.DictWriter(csvfile, fieldnames=fieldnames) writer.writeheader() writer.writerows(data) url = 'https://example.com' output_file = 'data.csv' web_scraper(url…