Коротко — ничего страшного: главная страница в статическом сайте должна называться index.html (или другой «файл по‑умолчанию», который использует хостинг), а robots.txt создаётся и кладётся в корень сайта. Имена страниц, совпадающие с доменом (например example.com.html), — это не нужно и не принято.
Ниже — что конкретно сделать и почему, с примерами.
1) Как назвать главную страницу
- Положите главную страницу в корень проекта и назовите index.html (или index.htm). Большинство веб‑серверов автоматически отдаёт index.html при запросе корня домена (https://domain/).
- Если хотите «чистые» URL без .html, можно:
- размещать index.html внутри папок: /about/index.html будет открываться по /about/,
- или использовать настройки хостинга/серверные правила (rewrite) — на чистом статическом хостинге это обычно настраивается в сервисе (Netlify, Vercel, _redirects и т.д.).
- SEO: имя файла не влияет на SEO. Для указания канонического адреса используйте <link rel="canonical" href="https://yourdomain/"> в <head>. Поставьте правильный canonical после покупки домена.
2) robots.txt — где и как
- Файл robots.txt должен лежать в корне сайта и быть доступен по https://yourdomain/robots.txt.
- Примеры:
- Разрешить всем:
User-agent: *
Disallow:
- Заблокировать всех (на случай разработки):
User-agent: *
Disallow: /
- Запретить определённые папки, и указать карту сайта:
User-agent: *
Disallow: /private/
Disallow: /tmp/
Sitemap: https://yourdomain/sitemap.xml
- Пока домена нет, можно сделать robots.txt локально и протестировать его при запуске локального сервера. Но сам robots.txt действует только для поисковых роботов реального домена после публикации.
3) Подготовка перед покупкой домена/хостинга
- Оставьте index.html в корне, все ресурсы в подпапках (css/, js/, images/).
- Используйте относительные ссылки (./page.html или /folder/page.html) — тогда при смене домена ничего не ломается.
- Создайте robots.txt с нужными правилами. Если не хотите, чтобы поисковики индексировали сайт до публикации, используйте Disallow: / или настройте временный HTTP‑аутентификатор на хостинге.
- (Опционально) подготовьте sitemap.xml и файл humans.txt/README для себя.
4) Как тестировать локально
- Не открывайте страницы по file:// — некоторые вещи (отдача robots.txt, относительные пути, CORS) лучше тестировать через HTTP.
- Быстрый локальный сервер:
- Python (если установлен): в корне проекта выполнить
python -m http.server 8000
и открывать http://localhost:8000/
- Node (http-server): npx http-server . -p 8000
- Проверьте http://localhost:8000/robots.txt и http://localhost:8000/ (index.html).
5) Варианты размещения (простые и бесплатные)
- GitHub Pages — подходит для статических сайтов. Загрузите репозиторий, включите Pages и получите site.github.io. Позже сможете привязать свой домен.
- Netlify, Vercel, Cloudflare Pages — позволяют быстро деплоить из репозитория, есть drag&drop, поддержка кастомного домена, правила редиректа.
- Классический хостинг с FTP/SFTP — загрузите файлы в public_html или www.
- Если купите виртуальный хостинг/сервер, убедитесь, что дефолтный документ настроен на index.html.
6) Дополнительные рекомендации по SEO/безопасности
- Не используйте robots.txt как средство «скрыть» конфиденциальные данные — он лишь советует роботам, и его содержимое видно всем.
- Для временного недоступия сайта лучше ставить HTTP‑аутентификацию (пароль) или показывать заглушку с meta noindex.
- После покупки домена добавьте canonical с https:// и решите, будет ли сайт с www или без — сделайте редирект на основной вариант.
Если хотите, могу:
- Проверить ваш текущий файл структуры (перечень файлов и папок) и подсказать, где что положить;
- Составить конкретный robots.txt и пример head с canonical для вашего сайта;
- Подробно описать деплой на GitHub Pages/Netlify с шагами.