<

Как оптимизировать файл WordPress Robots.txt для SEO

  1. Как создать файл Robots.txt?
  2. Как использовать файл Robots.txt?
  3. Как оптимизировать файл Robots.txt для SEO?
  4. Оптимизированный Robots.txt для WordPress:
  5. Повлиял ли мой контент на новый файл Robots.txt?
2

Оптимизируйте Robots.txt для WordPress : Вы когда-нибудь слышали о Robots.txt ? Конечно, вы имели. Файл WordPress robots.txt жизненно важен для эффективности SEO сайта. Это сильно влияет на рейтинг сайта в поисковых системах. Это помогает поисковым системам знать, какую часть они должны индексировать, а какую - нет. Отсутствие файла robot.txt не мешает поисковым системам сканировать и индексировать ваш сайт, но иногда вам нужно блокировать роботов поисковых систем для сканирования и индексирования определенной части вашего блога, здесь файл robots.txt играет свою роль. И если файл robots.txt настроен неправильно, поисковая система проигнорирует весь ваш сайт, и ваш сайт полностью исчезнет из поисковых систем. Хотя вы должны оптимизировать robots.txt, но вы никогда не должны неправильно конфигурировать его, чтобы он не блокировал ботов для доступа к важным частям вашего блога.

Вы должны были понять, почему robots.txt важен для любого блога / сайта, включая блог WordPress. Теперь вам должно быть интересно, что же это за файл robots.txt? Как вы можете создать robots.txt в блоге WordPress? Почему robots.txt важен для SEO? эта статья охватит все это. Также в этой статье вы узнаете, как оптимизировать WordPress robots.txt для SEO.

Роботы, txt сообщают поисковым роботам, какую часть индексировать и какую часть следует избегать. Во время индексации поисковые роботы вашего сайта или поисковый паук следуют инструкциям файла robots.txt. В зависимости от его направления поисковая система или паук будет индексировать или не индексировать любую страницу вашего сайта.

Как создать файл Robots.txt?

Файл Robots.txt находится в корневой папке вашего сайта. Вы можете использовать cPanel или FTP-клиент для просмотра этого файла. Если вы используете WordPress, то файл robots.txt уже будет создан, что вы можете увидеть в корне вашей установки WordPress.

Если на вашем сайте нет файла robot.txt, просто создайте простой файл блокнота и назовите его robots.txt и загрузите в корневую папку вашего сайта с помощью FTP-клиента или cPanel.

Вы также можете проверить роботов BroughtMeUp. TXT-файл, перейдя по ссылке ниже:

https://www.broughtmeup.com/robots.txt

Как использовать файл Robots.txt?

В первой строке robots.txt обычно указывается пользовательский агент. Пользовательский агент - это имя поискового бота, который пытается сканировать ваш сайт. Примерами пользовательских агентов могут быть Googlebot, Bingbot и т. Д. Вы можете ограничить, какой пользовательский агент должен сканировать ваш сайт. Но если вы ищете больше трафика с поисковых систем, то я бы порекомендовал вам разрешить каждый поисковый бот. Чтобы указать всем ботам индексировать ваш сайт, просто напишите User-agent: *

Теперь следующие строки в файле robots.txt следуют командам «Разрешить» или «Запретить» для роботов поисковых систем, чтобы они знали, какую часть сайта / страницу вы хотите, чтобы поисковая система проиндексировала или не проиндексировала. Пример файла robots.txt:

Пользователь-агент: *

Разрешить: / wp-content / uploads /

Disallow: / wp-content / plugins /

Как оптимизировать файл Robots.txt для SEO?

Для оптимизации robots.txt:

  • Не используйте robots.txt, чтобы скрыть некачественный контент, прекратить индексирование категории, дату, а лучше использовать другие плагины WordPress, такие как WordPress SEO плагин от Yoast а также Роботы Мета добавить метатеги Nofollow и Noindex. Причина в том, что Robots.txt не мешает поисковым роботам сканировать ваш сайт, он может только ограничить его индексацию.
  • Считай, что запрещен readme.html. Кто-то может использовать файл Readme.html, чтобы узнать, какую версию WordPress вы используете, перейдя к нему, чтобы они могли взломать ваш сайт. Запретив это, вы защищены от этих атак. Просто напишите Disallow: /readme.html в файле robots.txt.

  • Вы также должны запретить каталог плагинов WordPress по соображениям безопасности. Просто напишите Disallow: / wp-content / plugins /

  • Запретить ответную ссылку, чтобы избежать многих проблем с дублированием постов. Простая запись Disallow: *? Replytocom в файле robots.txt вашего сайта.

  • Рассмотрите возможность добавления вашего сайта XML-карты сайта в robots.txt для лучшей и быстрой индексации ваших сообщений в блоге.

Читать: WordPress Ping List для более быстрой индексации вашего блога

Оптимизированный Robots.txt для WordPress:

Пользовательский агент: * Disallow: / cgi-bin / Disallow: / wp-admin / Disallow: / comments / feed / Disallow: / trackback / Disallow: /index.php Disallow: /xmlrpc.php Disallow: / wp-content / плагины / User-agent: NinjaBot Allow: / User-agent: Mediapartners-Google * Allow: / User-agent: Googlebot-Image Allow: / wp-content / uploads / User-agent: Adsbot-Google Allow: / User-agent : Googlebot-Mobile Разрешить: / Карта сайта: https://www.broughtmeup.com/sitemapindex.xml Карта сайта: https://www.broughtmeup.com/sitemap-image.xml

Это оптимизированный файл robots.txt для WordPress. Вам просто нужно заменить ссылку на карту сайта BroughtMeUp на вашу фактическую ссылку на карту сайта.

Повлиял ли мой контент на новый файл Robots.txt?

Вы можете использовать функцию Fetch As Google в Инструменты Google для веб-мастеров чтобы проверить ваш контент из-за этого нового файла robots.txt. Просто войдите в свою учетную запись GWT и перейдите в меню «Сканирование»> «Получить как Google» , добавьте URL-адрес своего блога и проверьте, нет ли проблем с доступом к вашему блогу.

Кроме того, вы также можете использовать функцию ошибки сканирования в GWT, чтобы узнать, не вызвал ли новый файл robots.txt ошибки сканирования. Просто зайдите в Crawl> Robots.txt Tester и добавьте сообщение в блог или URL страницы, затем выберите нужного бота и нажмите Test, и вы обнаружите, отклонено ли оно новым файлом robots.txt.

На этом мы завершили оптимизацию файла robots.txt для SEO. Надеюсь, что это руководство помогло вам понять различные аспекты Robots.txt. Я надеюсь, что вы используете оптимизированный файл robots.txt для вашего сайта. Наконец, если вам понравилась статья, пожалуйста, поделитесь ею через Интернет. Для любого отзыва и запроса оставьте комментарий, а также сделайте подписаться на обновления ,

Txt?
Txt?
Txt для SEO?
Txt?
Txt?
Txt в блоге WordPress?
Txt важен для SEO?
Txt?
Txt?
Txt для SEO?