Как сделать склейку без htaccess – Зеркала сайта с WWW и без, а также склейка этих доменов при помощи 301 редиректа в htaccess | Создание сайтов и заработок в сети

Как склеить домены с www и без

Здравствуйте, читатели блога Сайт с нуля.

Довольно часто вебмастеры между собой используют такие понятия как «зеркала сайта», «склеить домены». Но к чему это они говорят?

Всё дело в том, что вам сайт может иметь несколько веб-адресов в интернете.  Потому что для поисковых систем такие адреса как «www.sitesnulya.ru» и «sitesnulya.ru» — это два разных объекта. И, если специально не сообщить поисковикам, что это один и тот же ресурс, они могут индексировать его страницы по разному.

Фактически, возникнет раздвоение сайта буквально на пустом месте, поскольку посетители могут заходить на него с «разных адресов».

Это один момент, другой — иногда в настройках вашего хостинга не используется перенаправление с www версии сайт на версию без него. Этот вариант еще хуже, поскольку пользователям будет выдаваться ошибка.

Таким образом, нужно всё это настроить так, чтобы поисковые системы все версии адреса сайта считали одним ресурсом, а также чтобы работало перенапраление.

Для все этого нужно склеить домены с www и без него. Иногда склеивают домены с разных стран, в этом случае объединяют «зеркала» с основным ресурсом.

Еще немного о том, зачем нужно склеивать домены

Во-первых, вам может понадобиться поменять один домен на другой, не теряя при этом трафик, технические и качественные характеристики. Это бывает в том случае, если, к примеру, домен сайта юридически оформлен не на вас, а на другого человека (всегда существует угроза, что у вас отберут домен). Или же вам не нравится старое название домена, а вы хотите получить новое.

Во-вторых, вы могли решить склеить с основным доменом похожие, но отличающиеся лишь опечаткой или такие же домены, но в другой зоне. Т.е. вы хотите сделать зеркала для вашего сайта, чтобы посетители случайно не переходили на ресурсы с похожими доменами.

В-третьих, склейка понадобится, если вы захотите объединить два похожих сайта, близких по тематике.

В-четвертых, склейка используется для того, чтобы поднять тИЦ главному домену за счет зеркал.

Также склейку используют в корыстных целях: склеивают домен с очень популярным сайтом, через какое-то время зеркало получает тИЦ и PR этого популярного сайта.

Указываем в Robots.txt основной домен

Прежде чем склеивать различные домены, создавать зеркала, нужно сообщить поисковым системам, какая версия вашего сайта является основной.

Для этого используют специальный файл robots.txt, который должен быть размещен у вас в корневой папке сайта на хостинге.

Необходимо всего лишь добавить одну строчку: Host: сайт.ru.

Это нужно главным образом для Яндекса и некоторых других поисковиков, поскольку Гугл сам определяет главный домен.

Используем 301 редирект

Итак, после работы с файлом  robots.txt, вам еще нужно дописать несколько строк в файл .htaccess. Иногда он может быть не видим в корневой папке сайта, если заходить через файловый менеджер хостинга — нужно изменить настройки, чтобы отображались скрытые файлы. Или же его очень просто найти, если подключиться к серверу через ftp.

Бывают также случаи, когда такого файла и вовсе нет, тогда нужно создать обычный текстовый документ с помощью, например, в бесплатном редакторе кода Notepad++, и назвать его «.htaccess».

В сам файл добавьте следующие строчки кода, чтобы склеить домены с www и без него:

Options +FollowSymLinks

RewriteEngine On

RewriteCond %{HTTP_HOST} ^www.ваш_сайт\.ru$ [NC]

RewriteRule ^(.*)$ http:

 

Если хотите перенаправлять в обратном порядке, поменяйте местами версии сайта:

Options +FollowSymLinks

RewriteEngine On

RewriteCond %{HTTP_HOST} ^ваш_сайт\.ru$ [NC]

RewriteRule ^(.*)$ http:

Это редирект с варианта без приставки на вариант доменного имени с WWW.

Не забывайте про обратную наклонную черту перед точкой (.) в строке RewriteCond — она обязательна. Вместо «ваш_сайт» вписывайте нужные данные.

После использования 301 редиректа Google должен объединять PR данных ресурсов. Теперь, ваш интернет проект будет доступен и по доменному имени с www, так и без него, но в адресной строке вас будет перебрасывать на то имя, на которое вы настроили редирект.

Таким же образом склеиваются и зеркала с основным доменом.

Также стоит прочитать

sitesnulya.ru

склейка зеркал, robots.txt и .htaccess

Обидно, когда сайт, созданный с любовью, неожиданно для тебя приобретает дополнительно идиотские www. в начале. У Яндекса это особо распространённая практика: сайт, добавленный через их форму, автоматически снабжается начальным и бесполезным пред-стоящим www.-прицепом. Ну не понимаю я, зачем заставлять пользователя вводить дополнительно 4 символа, одинаковые для 90% сайтов? Давайте тогда уж и http:// тоже сделаем обязательным, или доведём до маразма, который несколько лет назад имел место быть на сайте одного из крупнейших ОпСоСов (сайт beeline.ru выдавал 404 ошибку; работал исключительно www.beeline.ru). Ах, как сложно было додуматься сделать хотя бы редирект на поддомен с www. в начале. Но речь пойдёт не об этом.

Итак, избавляемся от www. и не допускаем его появления для свежесозданного сайта.

office-820390_960_720

Начнём с самой простой ситуации: сайт новый и поисковики про него не знают. Создаём файл robots.txt и «кладём» в корень сайта. Содержимое файла:

User-Agent: *
Disallow:
Host: glavnoe-zerkalo.ru

Как пишет Яндекс, важна очерёдность. Поэтому директиву Host нужно добавлять к группе, начинающейся с директивы User-Agent, непосредственно после Disallow или Allow.

Первая строка соответствует любому поисковому боту, вторая — аналогично Allow: / (т. е. можно индексировать всё), а третья указывает адрес главного зеркала сайта.

Всё красиво, но, как всегда, есть подводные камушки:

Директива ‘Host’ не гарантирует выбор указанного главного зеркала, тем не менее, алгоритм при принятии решения учитывает её с высоким приоритетом.

Теперь совсем интересно. получается, что если боту указать явно на главное зеркало, он может решить, что сам дурак, и установит всё на своё усмотрение. Здесь уже простым robots.txt не обойтись и придётся колдовать внутренние редиректы. Оставим «за бортом» перенаправления на скриптовых и прочих языках (поясняю: html, javascript, php, perl и все прочие идут лесом). Редиректить нужно http-сервером, и в нашем случае это будет Apache. Создаём файл .htaccess (с помощью проводника виндузы это сделать не получится, поэтому открываем блокнот и уже в нём сохраняем как .htaccess. Это файл с пустым именем). D нём пишем следующие строки:

RewriteEngine on
RewriteCond %{HTTP_HOST} ^www\.mysite\.ru$
RewriteRule (.*) http://mysite.ru/$1 [R=permanent,L]

Первая строка включает механизм mod_rewrite, вторая проверяет условие, третья является правилом. В данном случае, во второй строке проверяется, запрашивается ли домен www.mysite.ru, и если это так, то «происходит переброс» (с сохранением пути) на mysite.ru.

Важно! Если подзапрос содержит post-данные, они будут утеряны, поэтому не сто́ит таким образом пытаться отослать данные форм!

Переброс происходит не на стороне сервера, а на стороне пользователя, поэтому адресная строка браузера изменится: http://www.mysite.ru/index.html превратится в http://mysite.ru/index.html.

Если что-то не работает, скорее всего допущена ошибка при наборе инструкций (хостинги без поддержки mod_rewrite мне ещё не встречались, но на всякий случай нужно уточнить у техподдержки, установлен ли данный модуль для Apache).

Если не хочется каждый раз изменять доменное имя, либо используется мультидоменный движок (в одной директории обрабатывается группа сайтов), можно юзать такой вариант:

RewriteEngine on
RewriteCond %{HTTP_HOST} ^www\.(.+)
RewriteRule (.*) http://%1/$1 [R=permanent,L]

Логика следующая: если запрашивается домен с www., то перенаправить пользователя на домен без www.

После такого «шаманства» должно пройти некоторое время (порой несколько месяцев), прежде чем поисковики обновят информацию о сайте. Так что, если главным зеркалом выбран не тот (под)домен, придётся предпринять меры к устранению, запастись терпением и ждать.

Автор публикации

2 060

не в сети 4 дня

x64 (aka andi)

Комментарии: 2882Публикации: 405Регистрация: 02-04-2009 office-820390_960_720Загрузка...

a-panov.ru

5 способов избавится от дубликатов страниц на вашем сайте

В данном обзоре рассмотрим как найти и навсегда удалить дубли страниц.

Как возникают дубликаты страниц
Какие бывают дубли страниц
Какую опасность несут в себе дубли страниц
Как обнаружить дубликаты на сайте
5 способов удалить дубликаты страниц

 Как возникают дубликаты страниц

Основные причины появления дублей — несовершенство CMS сайта, практически все современные коммерческие и некоммерческие CMS генерируют дубли страниц. Другой причиной может быть низкий профессиональный уровень разработчика сайтов, который допустил появление дублей.

 Какие бывают дубли страниц

1.  Главная страница сайта, которая открывается с www и без www 

пример www.site.ua и site.ua

site.ua/home.html и  site.ua/

2.  Динамическое содержание сайта с идентификаторами ?,  index.php, &view

site.ua/index.php?option=com_k2&Itemid=141&id=10&lang=ru&task=category&view=itemlist

site.ua/index.php?option=com_k2&Itemid=141&id=10&lang=ru&layout=category&task=category&view=itemlist

3. Со слешем в конце URL и без

site.ua/cadok/

site.ua/cadok

4. Фильтры в интернет-магазине (пример VirtueMart)

site.ua//?Itemid=&product_book&

5. Странички печати 

site.ua/cadok/?tmpl=component&print=1&layout=default&page=»

 Какую опасность несут в себе дубли страниц

Представьте себе что вы читаете книгу где на страничках одинаковый текст, или очень похожий. Насколько полезна для вас такая информация? В таком же положении оказываются и поисковые машины, ища среди дубликатов вашего сайта то полезное содержимое которое необходимо пользователю.

Поисковые машины не любят такие сайты, следовательно ваш сайт не займет высокие позиции в поиске, и это несет для него прямую угрозу.

 Как обнаружить дубликаты на сайте

1. С помощью команды  site:site.ua  можете проверить какие именно дубли попали в индекс поисковой машины.

2. Введите отрывки фраз с вашего сайте в поиск, таким образом обнаружите страницы на которых она присутствует

3. Инструменты для веб-мастеров Google, в разделе Вид в поиске → Оптимизация HTML, можете увидеть страницы, на которых есть повторяющееся метаописание или заголовки.

 5 способов удалить дубликаты страниц

1. С помощью файла robots.txt

Пример

Disallow: /*?
Disallow: /index.php?*

Таким образом, дадим знать поисковой машине, что странички, которые содержат параметры  ?, index.php?,  не должны индексироваться.

Есть одно «но»:  файл robots — это только рекомендация для поисковых машин, а не правило, которому они абсолютно следуют. Если, например, на такую страничку поставлена ссылка то она попадет в индекс.

2.  Файл  .htaccess, позволяет решить проблему с дублями на уровне сервера.

.htaccess — это файл конфигурации сервера Apache, находится в корне сайта. Позволяет настраивать конфигурацию сервера для отдельно взятого сайта.

Склеить странички сайта 301 редиректом.

Пример

Redirect 301 /home.html http://site.ua/  (для статических страниц cайта)

RewriteCond %{QUERY_STRING} ^id=45454
RewriteRule ^index.php$ http://site.ua/news.html? [L,R=301]   (редирект для динамических страничек)

Использовать 410 редирект (полное удаление дубля)
Он сообщает что такой странички нет на сервере.

Пример

Redirect 410 /tag/video.html

Настроить домен с www и без www

Пример с www
Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^site\.ua
RewriteRule ^(.*)$ http://www.site.ua/$1 [R=permanent,L]

Без www
Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.site.ua$ [NC]
RewriteRule ^(.*)$ http://site.ua/$1 [R=301,L]

Добавляем слеш в конце URL

RewriteCond %{REQUEST_URI} (.*/[^/.]+)($|\?) RewriteRule .* %1/ [R=301,L]

Для сайтов с большим количеством страниц будет довольно трудозатратно искать и склеивать дубли.

3. Инструменты для веб-мастеров

Функция Параметры URL позволяют запретить Google сканировать странички сайта с определенными параметрами

Или вручную удалить

Удаление страничек возможно только в случае если страничка:

— запрещена для индексации в файле robots.txt

— возвращает ответ сервера 404

— запрещена тегом noindex

4. Мета тег noindex — это самый действенный способ удаления дубликатов. Удаляет навсегда и бесповоротно.

По заявлению Google наличие тега noindex полностью исключает страничку из индекса.

Пример

<meta name=»robots» content=»noindex»>

Важно. Для того что бы робот смог удалить страничку, он должен ее проиндексировать, то есть она не должна быть закрыта от индексации в файле robots.txt.

Реализовать  можно через регулярные выражения PHP, используя функцию preg_match().

5. Атрибут rel=»canonical»

Атрибут rel=»canonical»  дает возможность указать рекомендуемую (каноническую) страничку для индексации поисковыми машинами, таким образом дубликаты не попадают в индекс.

rel=»canonical» указывается двома способами

1.  С помощью атрибута link в в HTTP-заголовке

Пример

Link: <http://site.ua/do/white>; rel=»canonical»

2. В раздел <head> добавить rel=»canonical» для неканонических версий страниц

Пример

<link rel=»canonical» href=»http://site.ua/product.php?book»/>

В некоторые популярные CMS атрибут rel=»canonical» внедрен автоматически — например, Joomla! 3.0 (почитайте об отличии версии Joomla! 2.5 и Joomla! 3.0). У других CMS есть специальные дополнения.

Подведем итог. При разработке сайта учитывайте возможности появления дублей и заранее определяйте способы борьбы с ними. Создавайте правильную структуру сайта (подробнее здесь).

Проверяйте периодически количество страниц в индексе, и используйте возможности панели  Инструментов для веб-мастеров.

При написании использовались материалы

https://support.google.com/webmasters/topic/2371375?hl=ru&ref_topic=1724125

Зберегти

Зберегти

Зберегти

blog.mcsite.ua

Как удалить/добавить слэш в конце URL через .htaccess

Вы здесь: Главная - PHP - PHP Основы - Как удалить/добавить слэш в конце URL через .htaccess

Как удалить/добавить слэш в конце URL через .htaccess

Наверняка, многие из Вас понимают, что в большинстве случаев "http://mysite.ru/dir" и "http://mysite.ru/dir/" откроют одно и то же. Но это лишь в большинстве случаев, а не всегда. Если идёт обработка REQUEST_URI через PHP, то там может иметь огромное значение наличие или отсутствия слэша в конце URL. И очень важно привести весь сайт к единому стандарту, чтобы было либо со слэшем на конце, либо без. Вот как удалить слэш на конце URL через .htaccess, а также как его добавить, я расскажу в этой статье.

Я приведу 2 кода, один всегда удаляет слэш на конце URL, а другой всегда добавляет. Начнём с 1-го варианта:

RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_HOST} (.*)
RewriteCond %{REQUEST_URI} /$ [NC]
RewriteRule ^(.*)(/)$ $1 [L,R=301]

Теперь если пользователь введёт "http://mysite.ru/dir/" его автоматически перенаправит на "http://mysite.ru/dir". Разумеется, все GET-параметры сохранятся. Например, если пользователь вводил: "http://mysite.ru/dir/?a=5&b=7", то его перенаправит по такому адресу "http://mysite.ru/dir?a=5&b=7".

А сейчас давайте рассмотрим вариант, когда нам обязательно нужен слэш в конце URL, то есть чтобы при вводе "http://mysite.ru/dir" был автоматический переход на "http://mysite.ru/dir/":

RewriteEngine On
RewriteBase /
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*[^/])$ $1/ [L,R=301]

С этим кодом в .htaccess слэш будет добавляться автоматически в конце URL.

Теперь Вы знаете, как удалять и добавлять слэш в конце URL через .htaccess. И Вам нужно лишь определиться, какой вариант Вам больше нравится, потому что никакой принципиальной разницы между ними нет.

  • Как удалить/добавить слэш в конце URL через .htaccess Создано 21.12.2012 10:32:52
  • Как удалить/добавить слэш в конце URL через .htaccess Михаил Русаков
Предыдущая статья Следующая статья

Копирование материалов разрешается только с указанием автора (Михаил Русаков) и индексируемой прямой ссылкой на сайт (http://myrusakov.ru)!

Добавляйтесь ко мне в друзья ВКонтакте: http://vk.com/myrusakov.
Если Вы хотите дать оценку мне и моей работе, то напишите её в моей группе: http://vk.com/rusakovmy.

Если Вы не хотите пропустить новые материалы на сайте,
то Вы можете подписаться на обновления: Подписаться на обновления

Если у Вас остались какие-либо вопросы, либо у Вас есть желание высказаться по поводу этой статьи, то Вы можете оставить свой комментарий внизу страницы.

Порекомендуйте эту статью друзьям:

Если Вам понравился сайт, то разместите ссылку на него (у себя на сайте, на форуме, в контакте):

  1. Кнопка:
    <a href="https://myrusakov.ru" target="_blank"><img src="https://myrusakov.ru/images/button.gif" alt="Как создать свой сайт" /></a>

    Она выглядит вот так: Как создать свой сайт

  2. Текстовая ссылка:
    <a href="https://myrusakov.ru" target="_blank">Как создать свой сайт</a>

    Она выглядит вот так: Как создать свой сайт

  3. BB-код ссылки для форумов (например, можете поставить её в подписи):
    [URL="https://myrusakov.ru"]Как создать свой сайт[/URL]

myrusakov.ru

Файл .htaccess и robot.txt - настройка, выбор главного зеркала сайта

Здравствуйте, уважаемые читатели моего блога! В этой статье я расскажу о файлах .htaccess и robots.txt — как их грамотно настроить. Это крайне важные файлы, которые позволяют задать главное зеркало сайта (склеить домены с www и без), настроить индексацию страниц, создать редирект 301. Дополнительно рассмотрим порядок действий при переезде со старого домена на новый.

Файл .htaccess и главное зеркало сайта

Каждый интернет ресурс имеет два зеркала — с приставкой www и без нее. Чтобы поисковики не воспринимали эти зеркала как два разных сайта с одинаковым контентом, необходимо выбрать из них главное и настроить редирект 301 на него, со второго зеркала. Тогда оба зеркала поисковиками будут восприниматься как единое целое и не будет играть роли, на какое из них ссылаются сторонние сайты — редирект позволит автоматически перекидывать пользователя на нужный адрес. Для этого необходимо создать и настроить файл .htaccess. Дополнительно можно указать основное зеркало в Яндекс Вебмастер и Google — инструменты для веб-мастеров. Для поисковиков все равно, какое зеркало вы выберете основным, поэтому исходите из своих личных предпочтений.

Зайдите на ftp в корневую папку и проверьте наличие файла .htaccess. Файл является скрытым, поэтому ftp клиенты могут его и не отображать. В ftp клиенте FileZilla следует включит функцию «Принудительно отображать скрытые файлы» в разделе «Сервер».

Для редактирования или создания файла .htaccess можно воспользоваться любым текстовым редактором. Только при создании укажите имя .htaccess, не забыв про точку в начала. Пропишите в нем следующие строчки (или добавьте их к уже имеющимся):

Редирект 301 с зеркала www на без www:

Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.vash_sait\.ru$ [NC]
RewriteRule ^(.*)$ http://adres_saita.ru/$1 [R=301,L]

Обратный вариант — редирект 301 с зеркала без www на с www:

Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^vash_sait\.ru$ [NC]
RewriteRule ^(.*)$ http://www.adres_saita.ru/$1 [R=301,L]

Только не забудьте вписать свой URL адрес. После этого еще необходимо прописать директиву Host в фале robots.txt, о чем читайте в следующем пункте.

Robots.txt — настройка индексации страниц сайта

Файл robots.txt указывает поисковикам, какие страницы сайта им можно индексировать, а какие нельзя. Для его создания можно воспользоваться любым текстовым редактором, даже блокнотом. Так же как файл .htaccess, robots.txt следует загрузить на ftp в корневую папку. Теперь рассмотрим основные директивы, которые следует прописывать в robots.txt.

User-agent — в этой директиве прописываются поисковые боты, для которых действуют указанные ниже настройки. Если указать символ *, то настройки будут относится ко всем поисковикам:

Вот список имен ботов самых популярных поисковых систем:

Google       Googlebot
Яндекс       Yandex
Rambler      StackRambler
Mail.ru      Mail.Ru
Yahoo!       Slurp (или Yahoo! Slurp)
Alexa        ia_archiver

После User-agent обязательно должна следовать директива Disallow или Allow.

Директива Disallow используется для запрета индексации всего сайта целиком или каких-то его страниц. Allow наоборот разрешает индексацию, в ней можно задавать исключения из правил, указанных в директиве Disallow.

Следует соблюдать следующие правила:

  • Недопустимо наличие пустых строк между директивами 'User-agent' и 'Disallow' ('Allow'), а также между самими директивами 'Disallow' и 'Allow'.
  • Перед каждой новой директивой 'User-agent' обязательно оставляйте пустую строку.
  • После названия директивы ставьте .
  • Allow и Disallow из соответствующего блока User-agent сортируются по длине URL (от меньшего к большему) и применяются последовательно. Если для данной страницы подходит несколько директив, то выбирается последняя в порядке появления в сортированном списке. Этот пункт будет более понятен после рассмотрения примеров, приведенных ниже.
  • при отсутствии параметров в директивах Allow и Disallow, индексация соответственно запрещается или разрешается для всех страниц сайта.

Теперь рассмотрим примеры, чтобы все стало более понятно.

Звездочка в директиве User-agent указывает на то, что приведенные ниже настройки относятся ко всем поисковикам. Отсутствие параметров в Disallow соответствует разрешению индексации всего сайта.

User-agent: Googlebot
Allow: /zapisi
Disallow: /

Настройки относятся только к роботу Гугла. Они предписывают запретить индексацию всего сайта, кроме страниц из /zapisi. Порядок следования Allow и Disallow не имеет значения, главное длина URL — в директиве Allow он длиннее, поэтому является исключением из правил, указанных в Disallow.

Помимо этого можно использовать спец символы — «*» и «$»:

* — любая (в том числе пустую) последовательность символов. По-умолчанию в конце каждого правила добавляется символ «*»:

Disallow: /indeksaciya  = Disallow: /indeksaciya*

Это означает запрет индексации всех страниц, которые начинаются с «/indeksaciya», то есть /indeksaciya, /indeksaciya.html и другие. Символ $ позволяет отметить действие *, тем самым конкретизировать правило:

В этом случае запрет будет распространятся только на /indeksaciya, но не на /indeksaciya.html.

Директивы Host и Sitemap воспринимается только ботами яндекса и служат для указания главного зеркала и адреса карты сайта.

Обязательно отделите данный блок от остальных настроек robots.txt пустой строкой.

Для зеркала с www:

User-agent: Yandex
Disallow:
Host: www.vash_site.ru
Sitemap: http://www.vash_site.ru/sitemap.xml.gz
Sitemap: http://www.vash_site.ru/sitemap.xml

Для зеркала без www:

User-agent: Yandex
Disallow:
Host: vash_site.ru
Sitemap: http://vash_site.ru/sitemap.xml.gz
Sitemap: http://vash_site.ru/sitemap.xml

Порядок переезда со старого домена на новый

Переезд со старого домена на новый является частным случаем склейки зеркал сайта. Яндекс рекомендует два пути решения данной проблемы: через директиву Host в файле robots.txt или через настройку редиректа 301 со старого адреса на новый в .htaccess. Так как директиву Host понимает только Яндекс, то лучше подстраховаться и выполнить оба этих варианта.

1. Купите новый домен и хостинг.

2. Перенесите на новый сервер все содержимое своего интернет ресурса.

3. На старом сайте в файле robots.txt в директиве Host укажите новый URL адрес.

4. В файле .htaccess настройте редирект 301:

Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^staryj_adres.ru$   
RewriteRule (.*) http://novyj_adres.ru/$1 [R=301,L]

Не забывайте указывать именно главные зеркала — с приставкой www или без нее.

5. Склейка займет определенное время, на протяжении которого оба интернет портала должны быть доступны.

На этом все, спасибо за внимание! Подписывайтесь на новости блога. Всех вам благ!

Лучший способ выразить благодарность автору - поделиться с друзьями!

Узнавайте о появлении нового материала первым! Подпишитесь на обновления по email:

Следите за обновлениями в Twitter и RSS.

fairheart.ru

Настройка .htaccess. Редирект с index.php|html, редирект с/на www

Настройка .htaccessПри проведении внутренней оптимизации сайта зачастую оптимизатор сталкивается с проблемой избыточных дубликатов страниц. Нередко они пагубно влияют на рост позиций сайта, особенно если их много.

Как же исправить проблему возникновения дубликатов страниц сайта находящихся в индексе поисковых систем?

Как сделать редирект с www

Для исправления проблемы дублирования страниц в индексе будет использоваться .htaccess. Склеим зеркала сайта с www на без www.

RewriteEngine On

## redirect not www

RewriteCond %{HTTP_HOST} ^www.seo-ap.ru$

RewriteRule ^(.*)$ http://seo-ap.ru/$1 [R=301,L]

 

Как сделать редирект на www

Cклеим дублирующиеся адреса без www с адресом содержащим www, через простановку редиректа на www через файл htaccess.

RewriteEngine On

## redirect to www

RewriteCond %{HTTP_HOST} ^seo-ap.ru$

RewriteRule ^(.*)$ http://www.seo-ap.ru/$1 [R=301,L]

 

Редирект с index.html и index.php на доменное имя

Склеив дубликаты образованные добавлением www к доменному имени сайта, в популярных CMS возникает следующая проблема. Формирующиеся страницы имеют приписку index.html или index.php. Которая приписывается как категориям , так и отдельным страница, для решения данной проблемы необходима простановка редиректов с данных расширений на страницы без них.

Простановка редиректа с адерс/index.php

RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.php\ HTTP/

RewriteRule ^index\.php$ http://seo-ap.ru/ [R=301,L]

Простановка редиректа с адерс/index.html

RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.html\ HTTP/

RewriteRule ^index\.html$ http://seo-ap.ru/ [R=301,L]

Простановка стандартного редиректа со страницы на страницу

Redirect 301 /старая страница http://новая страница

Зачем нужно проставлять редиректы на сайте

  • Наличие множества дублирующихся неуникальных страниц;
  • Необходимость переноса страниц на новый адрес;
  • Необходимость передачи веса и возраста страницам;
  • Снижение доли переходов на не актуальный контент;
  • Ускорение навигации по сайту;
  • Ускорение индексации страниц.

 

 

www.seo-ap.ru

Отправить ответ

avatar
  Подписаться  
Уведомление о