Для автоматического извлечения данных из ответов на сайте mail.ru можно использовать библиотеки для парсинга HTML, такие как BeautifulSoup или Selenium. Вот пример кода с использованием BeautifulSoup: ```python import requests from bs4 import BeautifulSoup def get_questions(section_url, keyword): questions = [] # Отправляем GET-запрос на указанную страницу раздела response = requests.get(section_url) if response.status_code == 200: # Создаем объект BeautifulSoup для парсинга HTML soup = BeautifulSoup(response.text, 'html.parser') # Ищем все заголовки вопросов на странице question_headers = soup.find_all('h2', class_='q--title') for header in question_headers: # Ищем в заголовке вопроса ключевое слово if keyword.lower() in header.text.lower(): # Добавляем текст вопроса в список question = header.text.strip() questions.append(question) return questions # Пример использования section_url = 'https://otvet.mail.ru/topic/' keyword = 'python' questions = get_questions(section_url, keyword) for question in questions: print(question) ``` В данном примере функция `get_questions` принимает URL раздела и ключевое слово в качестве параметров. Она отправляет GET-запрос на указанный URL, затем с использованием BeautifulSoup ищет заголовки вопросов и извлекает текст вопроса, содержащего указанное ключевое слово. Полученные вопросы добавляются в список, который затем возвращается как результат выполнения функции. Обратите внимание, что код приведен в качестве примера и может потребовать доработки, чтобы находить и извлекать другие данные из ответов. Также для парсинга динамически формируемого контента на сайте mail.ru может потребоваться использование Selenium для автоматизации взаимодействия с веб-страницей.