<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>508.com.ua &#187; должны написать508.com.ua</title>
	<atom:link href="https://508.com.ua/dolzhny-napisat/feed/" rel="self" type="application/rss+xml" />
	<link>https://508.com.ua</link>
	<description>508.com.ua</description>
	<lastBuildDate>Tue, 01 Jul 2025 17:00:27 +0000</lastBuildDate>
	<language>ru-RU</language>
		<sy:updatePeriod>hourly</sy:updatePeriod>
		<sy:updateFrequency>1</sy:updateFrequency>
	<generator>https://wordpress.org/?v=3.9.25</generator>
	<item>
		<title>Нюансы написания файла robots.txt</title>
		<link>https://508.com.ua/njuansy-napisanija-fajla-robots-txt/</link>
		<comments>https://508.com.ua/njuansy-napisanija-fajla-robots-txt/#comments</comments>
		<pubDate>Tue, 01 Jan 2013 13:49:30 +0000</pubDate>
		<dc:creator><![CDATA[admin]]></dc:creator>
				<category><![CDATA[Статьи]]></category>
		<category><![CDATA[адрес сайта]]></category>
		<category><![CDATA[данной директивы]]></category>
		<category><![CDATA[должны написать]]></category>
		<category><![CDATA[написания файла]]></category>
		<category><![CDATA[написания файла robots]]></category>

		<guid isPermaLink="false">http://wordpress.work/njuansy-napisanija-fajla-robots-txt/</guid>
		<description><![CDATA[В этой статье я расскажу вам про все нюансы написания файла robots.txt. Но с начала я расскажу вам про то, что это вообще такое и как его грамотно написать. Итак, что же это такое? Robots.txt — это самый обыкновенный файл с текстовым расширения, который находится в корне сайта. В нем прописаны различные директивы. Каждая из [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>В этой статье я расскажу вам про все нюансы написания файла robots.txt. Но с начала я расскажу вам про то, что это вообще такое и как его грамотно написать.</p>
<p>Итак, что же это такое? Robots.txt — это самый обыкновенный файл с текстовым расширения, который находится в корне сайта. В нем прописаны различные директивы. Каждая из них дает какую-либо информацию поисковым роботам. Другими словами, этот файл разрешает или запрещает поисковым системам индексацию различных страниц.</p>
<p><span id="more-17557"></span>
<p>Перед началом изучения различных директив нам нужно вычленить основной синтаксис данного файла. Вот он:</p>
<p>директива: ее значение</p>
<p>Как вы заметили, синтаксис наипростейший, его даже дурак запомнит и поймет. Ну, а теперь пришло время изучения директив. Итак, первой деркиктивой является User-Agent.</p>
<p>Данная директива говорит о том, к какому или каким поисковым роботам относятся данные условия. Значение «*» данной директивы говорит о том, что дынные правила применимы ко всем поисковикам. Ну а если вам все же нужно разрешить некоторые условия только какой-то одной определенной поисковой системе, например, Яндексу, вы должны написать в файле robots.txt следующее:</p>
<p>User-Agent: Yandex</p>
<p>Следующая директива — это Allow. Директива Allow дает разрешение на индексацию элементов, которые указаны в значение директивы. К примеру:</p>
<p>Allow: /images</p>
<p>Это условие разрешает поисковикам индексировать каталог images.</p>
<p>Далее — Disallow. Disallow — это полная противоположность директивы Allow. Эта директива запрещает индексацию поисковикам. Например, нам нужно запретить индексацию директории «library». Для этого мы должны написать:</p>
<p>Disallow: /library</p>
<p>Всегда помните, что более сильный приоритет имеет то условие, которое находится в тексте файла выше. Например:</p>
<p>Allow: /img<br /> Disallow: /</p>
<p>В данном примере директива Disallow полностью запрещает индекс сайта, но директива allow, которая разрешает индексацию папки img, находится выше, а это значит, что запрет на индексацию не распространяется на папку img. А вот если поставить директиву Disallow первой, то индексации папки img не произойдет. У данной директивы так же есть значение «*». Это значение может запретить или разрешить (в зависимости от директивы) индексацию всех файлов в определённой папке. Например:</p>
<p>Disallow : /img/*.png</p>
<p>Данной строчкой мы запрещаем индексацию рисунков с расширением png папки img. Но при этом изображения с другими расширениями будут доступны для индексации.</p>
<p>Есть еще такая директива как Sitemap. Эту директиву используют только в том случае, если на сайте имеется XML версия карты сайта. В значение данной директивы обязательно нужно прописать путь к карте сайта (полный). Вот пример:</p>
<p>Sitemap: sitemap.xml</p>
<p>Далее — директива Host. Директиву Host может понимать только Яндекс. Эта директива в своем значении содержит основной адрес сайта. Это часто используется, когда у вашего сайта есть много зеркал. Пример написания условия:</p>
<blockquote><p>Host: site2sale.ru</p></blockquote>
<p>Еще эту директиву можно использовать вместо прописывания 301 редиректа. Это значит, что она может прекратить дублирование. Просто укажите полный адрес сайта в значении директивы (с www или без). Однако не забывайте, что эта директива работает только с Яндексом, а для остальных поисковиков вам придется прописывать 301 редирект.</p>
<p>Здесь перечислены основные директивы robots.txt. Есть еще несколько, но их почти никто не использует. Можете почитать про них в интернете.</p>
]]></content:encoded>
			<wfw:commentRss>https://508.com.ua/njuansy-napisanija-fajla-robots-txt/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
