Для автоматического извлечения данных из ответов на сайте mail.ru можно использовать библиотеки для парсинга HTML, такие как BeautifulSoup или Selenium.
Вот пример кода с использованием BeautifulSoup:
```python
import requests
from bs4 import BeautifulSoup
def get_questions(section_url, keyword):
questions = []
# Отправляем GET-запрос на указанную страницу раздела
response = requests.get(section_url)
if response.status_code == 200:
# Создаем объект BeautifulSoup для парсинга HTML
soup = BeautifulSoup(response.text, 'html.parser')
# Ищем все заголовки вопросов на странице
question_headers = soup.find_all('h2', class_='q--title')
for header in question_headers:
# Ищем в заголовке вопроса ключевое слово
if keyword.lower() in header.text.lower():
# Добавляем текст вопроса в список
question = header.text.strip()
questions.append(question)
return questions
# Пример использования
section_url = 'https://otvet.mail.ru/topic/'
keyword = 'python'
questions = get_questions(section_url, keyword)
for question in questions:
print(question)
```
В данном примере функция `get_questions` принимает URL раздела и ключевое слово в качестве параметров. Она отправляет GET-запрос на указанный URL, затем с использованием BeautifulSoup ищет заголовки вопросов и извлекает текст вопроса, содержащего указанное ключевое слово. Полученные вопросы добавляются в список, который затем возвращается как результат выполнения функции.
Обратите внимание, что код приведен в качестве примера и может потребовать доработки, чтобы находить и извлекать другие данные из ответов. Также для парсинга динамически формируемого контента на сайте mail.ru может потребоваться использование Selenium для автоматизации взаимодействия с веб-страницей.