Отключить индексацию сайта: Как закрыть сайт от индексации и запретить поисковым роботам его сканировать – Блог Netpeak Software

Содержание

Как закрыть ссылки и страницы сайта от индексации? — Seo Master на vc.ru

326 просмотров

С какой целью порой может использоваться закрытие веб-сайта или каких-то его разделов, страниц от индексации поисковыми системами? Вариантов с ответами имеются несколько:

  • Следует убрать от всеобщего обзора ту или иную информацию, в которой могут находиться секретные данные.
  • Если нужно сформировать подходящий релевантный контент: случаются варианты, если очень сильно возникает желание сообщить пользователям Интернете больший поток информации, однако которая делает туманной релевантность по тексту.
  • Закрыть от роботов дублирующий контекст.
  • Спрятать информацию, которая не представляет интереса для пользователей, и которую так не любят поисковые роботы, считая ее спамом в медиа-контенте.

Например, это могут быть портфолио, материалы сайта с устаревшим смыслом, какие-то расписания в справочниках.

php» search_bot

Способ второй

Для страницы, которую необходимо закрыть, можно в файле .htaccess прописать любой из следующих ответов сервера:

1 403 «Доступ к ресурсу запрещен», т.е. код 403 Forbidden

2 410 «Ресурс недоступен», т.е. окончательно удален

Способ третий

Можно закрыть индексацию к сайту с помощью доступа только по паролю:

В этом случае, в файле .htaccess, вставляем следующий код:

1 AuthType Basic

2 AuthName «Password Protected Area»

3 AuthUserFile /home/user/www-pass/.htpasswd

4 Require valid-user

Значит в корне сайта создаем — home/user/www-pass/.htpasswd

где .htpasswd — файл с паролем, который создаем сами в файле.

Но затем следует добавить пользователя в файл паролей htpasswd — /home/user/www-pass/.htpasswd USERNAME

где USERNAME — это имя пользователя для авторизации.

Здесь можно прописать свой вариант.

Как закрыть отдельный блог от индексации?

Зачастую бывает, что необходимо закрыть от поисковой индексации не весь сайт целиком, а только конкретный источник: список, счетчик, запись, страницу либо какой-нибудь код.

В одно время, достаточно было использовать тег «noindex», но это больше подходило для роботов Яндекса, а для Google были достаточны обычные действия.

Здесь может быть любой текст, ссылки или код

Но затем роботы Яндекс стали меньше обращать внимания на такую техническую «уловку», а роботы Google вообще перестали понимать данную комбинацию. В результате, технические специалисты сайтов, стали применять иной вариант с целью закрытия индексации части текста на какой-либо странице, используя скрипты javascript, либо соответствующие плагины или модули.

Часть текста шифруется с помощью javascript. Но следует помнить, что затем непосредственно сам скрипт нужно будет закрыть от индексации в robots.txt.

Универсальный способ закрытия изображений (медиафайлов) от индексации

Многие сайты используют картинки, которые в основном берутся из Интернета, я значит никак не могу считаться уникальными. В результате таких действий, появляется боязнь, то, что роботы поисковиков отнесутся к таким сайтам негативно, а именно будут блокировать продвижение и повышение в рейтингах.

В этом случае следует на странице сделать следующую запись в коде:

<span data-link=»https://goo.gl»><img src=»…»></span>

Скрипт, который будет обрабатывать элемент:

<script>$(‘.hidden-link’).replaceWith(function(){return'<a href=»‘+$(this).data(‘link’)+'»>’+$(this).html()+'</a>’;})</script>

Как закрыть от индексации внешние либо внутренние ссылки?

Такие действия нужно только в том случае, если нужно закрыть от индексации входящие ссылки от сайтов находящиеся под санкциями поисковых систем, а так же скрыть исходящие ссылки на сторонние ресурсы, чтобы предотвратить уменьшение веса сайта, а именно ТИЦ сайта донора.

Для этого нужно создать файл transfers.js

После этого нижеуказанную часть кода вставляем в файл transfers.js:

function goPage(sPage) {

window.location.href = sPage;

}

После этого данный файл уже размещаем в соответствующей папке сайта и на странице в head добавляем код:

<script type=»text/javascript» src=»/js/transfers. js»></script>

И теперь прописываем необходимую ссылку, которую нужно скрыть от индексации поисковых систем:

<a href=»javascript:goPage(‘http://указываем URL/’)»></a>

Как закрыть от индексации роботов отдельную страницу на сайте?

Первый метод — через файл robots.txt

</pre>

Disallow: /URL-страницы сайта

<pre>

Второй метод — закрытие с помощью метатегов

<meta name=»robots» content=»noindex, nofollow» />

Третий метод — в Вебмастере Яндекса, в разделе «Инструменты» с помощью «Удалить URL» можно отдельно по каждой ссылке сделать запрет на индексацию от роботов Яндекса.

Четвертый метод — сделать запрет на индексацию через ответ сервера:

404 — ошибка страницы

410 — страница удалена

И сделать добавление в файле .htaccess:

ErrorDocument 404 https://URL-сайта/404

Однако, данным метод используется весьма редко.

Как закрыть от индексации сразу весь раздел или категорию на сайте?

Лучший способ — реализовать это с помощью файла robots. txt, где внутри прописать:

User-agent: *

Disallow: /название раздела или категории

Дополнительные варианты:

Кроме указанных выше способов, также могут подойти способы, которые применяются для сокрытия страницы сайта целиком, либо какого-то раздела, — правда, если подобные действия могут быть сделаны автоматически:

  • соответствующий ответ сервера для определенных страниц раздела сайта
  • применение мета-тегов к определенным страницам

Все эти без исключения методы, возможно, осуществить программно, а никак не в «ручном» режиме назначать к любой страничке или части текста запрет на индексацию – весьма дороги трудовые затраты.

Конечно, ведь легче в целом сделать соответствующее запрещение в файле robots.txt, однако практика показывает, то что это не может гарантировать на 100% запрет на индексацию.

Как закрыть от индексации целиком папку?

В этом случае на закрытие пойдет непосредственно папка, а не раздел. Ведь нам нужно закрыть папку с файлами, которые не должны видеть поисковые роботы, а это могут быть какие-то разработки, документы, картинки и многое другое.

User-agent: *

Disallow: /folder/

5 способов закрытия сайта от индексации поисковиков

Довольно часто возникает необходимость в запрете на включение ресурса в индекс поисковиков, например, когда он разрабатывается и есть риск индексирования информации, которую не хотелось бы разглашать, а также во многих других случаях. Рассмотрим, как закрыть свой сайт от индексации всеми доступными способами.

Закрытие сайта от индексации

Как закрыть сайт от индексации

Причины для запрета индексирования

Интернет-ресурсы скрывают от поисковых роботов в разных ситуациях, но чаще всего эта процедура проводится по одной из таких причин.

  • При создании сайта. Допустим, вы на начальном этапе разработки и наполнения своей площадки контентом, меняете навигацию, интерфейс и других параметры. Как только начинается работа над сайтом, он и его наполнение еще не соответствуют всем вашим ожиданиям. Поэтому до окончательной доработки стоит скрыть свой ресурс от просмотра Google и «Яндексом», чтобы не индексировать неполноценные страницы. Не стоит рассчитывать на то, что ваш новый сайт, по которому еще не отправлены ссылки для индексирования, не обнаружат поисковики. Их роботы не только учитывают ссылки, но и смотрят на посещения сайта в браузере.
  • Когда веб-ресурс копируется. В некоторых случаях у разработчиков возникает необходимость в дублировании сайта, например, для тестирования на втором экземпляре доработок. И стоит сделать так, чтобы этот дубликат не индексировался. Иначе может пострадать оригинальный проект, и поисковики будут введены в заблуждение.

Способы закрытия индексации

Для решения этой задачи используются такие основные технологии:

  • изменение настроек в WordPress;
  • внесение команды в файл robots.txt;
  • использование специального мета-тега;
  • прописывание кода в настройках сервера;
  • использование HTTP заголовка X-Robots-Tag.

1-й способ – Запрет на индексирование через WordPress

Для сайтов, созданных на базе этой системы, есть такой быстрый и несложный алгоритм действий для закрытия от роботов.

  1. В «Панели управления» находим пункт меню «Настройки».
  2. Заходим в раздел «Чтение».
  3. Здесь в пункте «Видимость для поисковых систем» ставим галочку возле надписи о рекомендации роботам не проводить индексацию.
  4. Сохраняем изменения.

В ответ на эти действия происходит автоматическое изменение файла robots.txt, корректируются правила, и таким образом отключается индексирование. При этом поисковая система оставляет за собой право решить, отключить робота или нет, даже несмотря на решение разработчика сайта. Опыт показывает, что от «Яндекса» можно не ждать таких решений, а Google иногда продолжает индексацию.

2-й способ ­– Изменение файла robots.txt

Если сайт построен не на WordPress, или невозможно закрыть доступ в этой системе по другим причинам, можно провести ручное удаление из поисковых систем. Сделать это также довольно просто. Создаем стандартный текстовый документ robots с расширением txt. Дальше вставляем его в корневую папку сайта, чтобы была возможность открывать его по адресу sait.com (ru, рф и т. п.)/robots.txt, где sait.com – url вашего ресурса. Файл пока пустой, и предстоит его заполнить необходимыми командами, при помощи которых можно полностью запретить доступ к сайту или закрыть только некоторые его участки. Есть несколько вариантов этой операции, каждый из которых мы рассмотрим дальше.

Полное закрытие для всех поисковиков

С этой целью прописываем в роботс такие строки:

Usеr-аgеnt: *

Dіsаllоw: /

После сохранения файла robots.txt сайт будет полностью закрыт для индексации ботами всех поисковых систем, и они не смогут ни обрабатывать информацию, размещенную на вашем ресурсе, ни вносить ее в свою базу данных. Для проверки результата, как уже упоминалось, можно ввести в браузере такую строку: sait.com (адрес вашего сайта)/robots. txt. При правильном выполнении задачи на странице появится содержащаяся в файле информация. Если же появится ошибка 404, это в большинстве случаев говорит о том, что файл скопирован не туда.

Отключение индексации одной папки

В команде дополнительно указываем ее название:

Usеr-аgеnt: *

DіsаІІоw: /fоІdеr/

Этот способ позволяет полностью скрыть файлы, размещенные в определенной папке.

Блокировка индексирования «Яндексом»

В первой строке меняем «*» на название бота поисковика:

Usеr-аgеnt: Yаndех

DіsаІІоw: /

Убедиться в том, что сайт удален из индекса «Яндекса», можно путем его добавления в «Вебмастер». После этого нужно перейти в раздел «роботс» по адресу https://webmaster-yandex.ru/tools/robotstxt/. Ссылки на несколько документов сайта вставляем в поле для url и кликаем «Проверить». Подтверждением успешного запрета индексации является появление надписи «Запрещено правилом /*?*».

Закрытие сайта от бота Google

Принцип построения команды тот же. Только меняется название бота:

Usеr-аgеnt: GооgІеbоt

DіsаІІоw: /

При проверке используется тот же прием, что и для «Яндекса». На панели инструментов Google Search Console должны появиться надпись «Заблокировано по строке» напротив соответствующей ссылки и команда, запрещающая ботам индексацию сайта. Но велика вероятность получить ответ «Разрешено», который говорит о вашей ошибке или о том, что поисковик разрешил индексацию страниц, для которых в robots прописан запрет. Как уже упоминалось выше, поисковые роботы воспринимают содержимое этого файла не как руководство к действию, а как набор рекомендаций, поэтому они оставляют за собой право решать, индексировать сайт или нет.

Запрет индексации другими поисковыми системами

У каждого поисковика свои боты с оригинальными именами, что позволяет веб-мастерам прописывать для них персональные команды в robots.txt. О «Яндексе» и Google мы уже писали. Вот еще три робота популярных поисковиков:

  • МSNВоt – бот поисковой системы Віng;
  • SputnіkВоt – «Спутника»;
  • Slurр – Yаhоо.

Блокировка картинок

Для запрета индексации изображений в зависимости от их формата прописываются такие команды:

Usеr-Аgеnt: *

DіsаІІоw: *.jрg (*.gіf или *.рng)

Закрытие поддомена

В этом случае нужно учитывать один важный нюанс. У каждого поддомена свой файл robots.txt, находящийся, как правило, в его корневой папке. В нем нужно прописать стандартную команду блокировки:

Usеr-аgеnt: *

Dіsаllоw: /

При отсутствии такого документа его необходимо создать.

3-й способ – Использование специального мета-тега name=”robots”

Этот способ закрытия сайта или его отдельных элементов от поисковых роботов считается одним из лучших. Он заключается в прописывании с тегами

и такого кода:

или такого:

Место размещения кода значения не имеет.

4-й способ – Прописывание кода в настройках сервера

Веб-мастера выбирают этот вариант запрета индексации, когда боты не реагируют на другие действия. Googlebot» search_bot

Она заблокирует доступ для бота Google. Дальше нужно повторить операцию и прописать такие же строки для других поисковиков, но с названиями их ботов: Yаndех, msnbоt, MаіІ, Yаhоо, Rоbоt, Snарbоt, Раrsеr, WоrdРrеss, рhр, ВІоgPuІsеLіvе, bоt, Ароrt, іgdеSрydеr и sріdеr. Всего должно получиться 15 команд.

5-й способ – Использование X-Robots-Tag

В этом случае также настраивается блокировка через .htaccess, но при этом меняется заголовок НТТР X-Robots-Tag, который дает поисковикам указания, для понимания которых не нужно загружать сам документ. Такие инструкции авторитетнее, так как не нужно тратить ресурсы на изучение содержимого. Кроме того, этот метод подходит для любых видов контента.

Он используется с такими же директивами, как и Meta Robots: nоnе, nоіndех, nоаrсhіvе, nоfоІІоw и т. д. Есть два способа применения X-Robots-Tag. Первый – при помощи РНР, а второй – через настройку файла .htaccess.

Проверка индексирования сайта и отдельных страниц

Чтобы определить, индексируется сайт (страница, отдельный материал) в поисковике или нет, можно использовать один из таких четырех способов.

  1. Через панель инструментов «Вебмастера». Это самый популярный вариант. Находим в меню раздел индексирования сайта и проверяем, какие страницы попали в поиск.
  2. С использованием операторов поисковиков. Если указать команду «site: url сайта» в строке поиска Google или «Яндекса», можно определить, какое примерное количество страниц попало в индекс.
  3. При помощи расширений и плагинов. Можно провести автоматическую проверку индексирования через специальные приложения. Лидер по популярности среди таких плагинов – RDS bar.
  4. Посредством специальных сторонних сервисов. Они наглядно демонстрируют, что попало в индекс, а каких страниц там нет. Есть и платные, и бесплатные варианты таких инструментов.

Подведем итоги

Независимо от причины, по которой поисковым роботам закрывается доступ к ресурсу в целом, определенным страницам или материалам, можно использовать любой из описанных выше способов блокировки. Их несложно реализовать, и для этого не требуется большое количество времени. Вам вполне под силу самостоятельно скрыть от поисковых ботов определенную информацию, но следует помнить, что не каждый из методов дает 100-процентный результат.

ЧИТАЙ ТАКЖЕ

Как за час вывести в топ статью на «Яндекс.Дзене»

301 редирект на URL без префикса WWW через файл .htaccess

Что такое 301-й редирект. Подробная инструкция по настройке

Предотвратить появление контента в результатах поиска

Вы можете предотвратить появление нового контента в результатах, добавив URL-слаг в файл robots.txt. Поисковые системы используют эти файлы, чтобы понять, как индексировать содержимое веб-сайта.

Если поисковые системы уже проиндексировали ваш контент, вы можете добавить метатег «noindex» в заголовок HTML контента. Это сообщит поисковым системам, чтобы они перестали отображать его в результатах поиска.

 

Обратите внимание: в файле robots.txt может быть заблокирован только контент, размещенный в домене, подключенном к HubSpot. Узнайте больше о настройке URL-адресов файлов в инструменте работы с файлами.


Использовать файлы robot.txt

Вы можете добавить контент, который еще не был проиндексирован поисковыми системами, в файл robots.txt, чтобы он не отображался в результатах поиска.

Чтобы отредактировать файл robots.txt в HubSpot: 

  • настройки значок настроек на главной панели навигации.»}» data-sheets-userformat=»{«2″:8402947,»3″:[null,0],»4″:[null,2,16777215] ,»14″:[null,2,0],»15″:»Arial»,»16″:10,»26″:400}» data-sheets-formula=»=»»»>В вашей учетной записи HubSpot , щелкните настройки значок настроек на главной панели навигации.

  • настройки значок настроек на главной панели навигации.»}» data-sheets-userformat=»{«2″:8402947,»3″:[null,0],»4″:[null,2,16777215] ,»14″:[null,2,0],»15″:»Arial»,»16″:10,»26″:400}» data-sheets-formula=»=»»»>На левой боковой панели меню, перейдите к Веб-сайт  Страницы .

  • настройки значок настроек на главной панели навигации.»}» data-sheets-userformat=»{«2″:8402947,»3″:[null,0],»4″:[null,2,16777215],»14″:[null,2,0],»15″:»Arial»,»16″:10, «26»:400}» data-sheets-formula=»=»»»>Выберите домен, файл robots.txt которого вы хотите изменить:
    • Чтобы изменить файл robots.txt для всех подключенных доменов, щелкните раскрывающееся меню Выберите домен, чтобы изменить его настройки и выберите Настройки по умолчанию для всех доменов . настройки значок настроек на главной панели навигации.»}» data-sheets-userformat=»{«2″:8402947,»3″:[null,0],»4»:[null,2,16777215], «14»:[null,2,0],»15″:»Arial»,»16″:10,»26″:400}» data-sheets-formula=»=»»»>
    • настройки значок настроек на главной панели навигации.»}» data-sheets-userformat=»{«2″:8402947,»3″:[null,0],»4″:[null,2,16777215] ,»14″:[null,2,0],»15″:»Arial»,»16″:10,»26″:400}» data-sheets-formula=»=»»»>Для редактирования роботов . txt для определенного домена, щелкните раскрывающееся меню Выберите домен для редактирования его настроек и выберите домен . При необходимости нажмите 
      Переопределить настройки по умолчанию
      . Это переопределит все настройки файла robots.txt по умолчанию для этого домена.
  • настройки значок настроек на главной панели навигации.»}» data-sheets-userformat=»{«2″:8402947,»3″:[null,0],»4″:[null,2, 16777215],»14″:[null,2,0],»15″:»Arial»,»16″:10,»26″:400}» data-sheets-formula=»=»»»>Нажмите SEO и поисковые роботы вкладка. настройки значок настроек на главной панели навигации.»}» data-sheets-userformat=»{«2″:8402947,»3″:[null,0],»4»:[null,2,16777215], «14»:[null,2,0],»15″:»Arial»,»16″:10,»26″:400}» data-sheets-formula=»=»»»> 
  • В разделе Robots.txt отредактируйте содержимое файла. Файл robots.txt состоит из двух частей:
    • User-agent: определяет поисковую систему или веб-бот, к которому применяется правило. По умолчанию будут включены все поисковые системы, отмеченные звездочкой (*), но вы можете указать здесь конкретные поисковые системы. Если вы используете модуль поиска по сайту HubSpot, вам нужно будет включить
      HubSpotContentSearchBot
      в качестве отдельного агента пользователя. Это позволит функции поиска сканировать ваши страницы.
    • Запретить: указывает поисковой системе не сканировать и не индексировать файлы или страницы, используя определенный URL-слаг. Для каждой страницы, которую вы хотите добавить в файл robots.txt, введите Disallow: /url-slug (например, www.hubspot.com/welcome будет отображаться как Disallow: /welcome).

  • В левом нижнем углу нажмите Сохранить .

Узнайте больше о форматировании файла robots.txt в документации для разработчиков Google.

Используйте метатеги «noindex»

Если контент уже проиндексирован поисковыми системами, вы можете добавить метатег «noindex», чтобы запретить поисковым системам индексировать его в будущем.

Обратите внимание: этот метод не следует сочетать с методом robots.txt, так как это не позволит поисковым системам увидеть тег «noindex» и недоступен для страниц, использующих начальные шаблоны.

Чтобы добавить метатег noindex к вашему контенту: 

  • Наведите курсор на содержимое и нажмите Редактировать .
  • В редакторе контента перейдите на вкладку Настройки , затем нажмите Дополнительные параметры .
  • В разделе Дополнительные фрагменты кода добавьте следующий код в поле Head HTML : .

  • В правом верхнем углу нажмите Обновить , чтобы применить это изменение.

Если у вас есть учетная запись Google Search Console   , вы можете ускорить этот процесс для результатов поиска Google с помощью инструмента удаления Google.

Как отключить индексирование поисковыми роботами — поддержка

Мета дискурса

омфг (о боже)

1

Интересно, где лучше всего отключить индексацию (установить noindex) на всем сайте, то есть по всем направлениям.
Достаточно ли просто вставить NOINDEX в заголовок Discourse (интересно, будет ли это применяться ко всем страницам/URL-адресам, сгенерированным сайтом)?

П.С. А для неадекватных сканеров, таких как некоторые поисковые системы, где лучше всего блокировать страны, до Docker NAT или после, внутри Docker? Я бы хотел заблокировать целые страны. Кажется, дешевле всего сбрасывать соединения с iptables до того, как они попадут в контейнер, но я не уверен, что это хорошая практика.

Миттиниг (Миттинег)

2

Интересный вопрос. Я думаю, что никогда не слышал, чтобы кто-то хотел заблокировать поисковые системы на всем сайте. Обычно бывает наоборот.

Я тоже не знаю, но предполагаю, что любые «поведенческие» боты будут соблюдать и nofollow, и noindex в заголовках страниц, и all inclusive disallow в robots.txt, но, может быть, некоторые делают одно, а не другое?

Извините, ничего не могу предложить по серверу, осуществляющему блокировку. Но, возможно, вы могли бы потребовать регистрации и ручного утверждения, чтобы запретить нежелательным доступ к сайту.
Они все еще могли зайти на сайт, но получили бы только «извините».

кодированиеужас (Джефф Этвуд)

3

Для этого существует логическая настройка сайта, ищите «index» или «robots».

7 лайков

майкл (Майкл — Communiteq)

4

Миттиниг:

Кажется, я никогда не слышал, чтобы кто-то хотел заблокировать поисковые системы на всем сайте. Обычно наоборот

Одним из наиболее частых вариантов использования этого является защита сайта от поисковых систем до того, как он станет доступным для широкой публики, без необходимости обязательного входа в систему для просмотра любого контента.

Параметр Безопасность -> разрешить индекс в robots txt

6 лайков

сверхъестественно

5

Мы используем наш дискурс-сайт в качестве внутренней базы знаний для нашей компании (discourse.example.com). Мы не хотим, чтобы поисковые системы сканировали этот сайт.

Три параметра, которые я вижу в настройках:

Какие параметры безопасности мы должны изменить в дополнение к отключению «разрешить индекс в robots txt»?

Майкл (Майкл — Communiteq)

6

Каждая приличная поисковая система учитывает robots.txt, так что этого должно быть достаточно.
Если вежливо не получается, то единственный способ не допустить их — сделать ваш форум закрытым или заблокировать определенные IP-адреса.

4 лайков

(Джошуа Розенфельд)

7

сверхъестественно:

Мы используем наш дискуссионный сайт в качестве внутренней базы знаний для нашей компании

Я делаю то же самое. Мы сделали две вещи, чтобы обеспечить безопасность нашего сайта:

  1. Требуется вход. Не все в «компании» (в моем случае университет) должны иметь доступ, а только определенные сотрудники, поэтому мы ограничили доступ таким образом.
  2. Нет доступа к порту 80 через брандмауэр. Вы не можете получить доступ к Discourse (или к чему-либо на конкретном сервере, если на то пошло) из-за пределов сети компании. Это включает в себя поисковые системы (которым уже мешает № 1, но я отвлекся). Если сотруднику нужен доступ вне офиса, он использует VPN.

3 лайков

сверхъестественно

8

jomaxro:

0 доступ через брандмауэр

Отличная информация — спасибо, @jomaxro! Мы хотели бы сделать № 2, но наша небольшая компания работает в коворкинге (мы не владеем сетью). Есть ли у вас какие-либо предложения по обходному пути, или вы думаете, что № 1 будет достаточно?

1 Нравится

(Джошуа Розенфельд)

9

#1 вполне достаточно. Любой неаутентифицированный зритель (например, Google) увидит следующую страницу (настраиваемую). Невозможно получить доступ к какому-либо контенту и, следовательно, ничего не просканировать. Добавление NOINDEX следует соблюдать, но, если не в худшем случае, это попадание на экран входа в систему:

Вставленное изображение 1900×301 15,8 КБ

Что касается № 2, он предназначен не для предотвращения индексации Discourse, а для общей безопасности server (помимо Discourse есть и другие приложения). Политика сетевой безопасности компании заключается в том, чтобы не открывать брандмауэр для сервера, если для этого нет веской причины. Сервер используют только студенты/сотрудники, все из которых имеют учетные данные VPN, поэтому сервер не получает доступ к брандмауэру.

2 лайков

сверхъестественно

10

Итак, если я храню много конфиденциальной информации на нашем дискуссионном форуме, что вы предлагаете сделать, чтобы сделать ее максимально безопасной? (мы не хотим, чтобы злоумышленники, обнаружившие intranet. ourcompany.com, могли получить доступ и прочитать конфиденциальную информацию о продукте и стратегии).

Должен ли я просто удалить наш CNAME и направить всех на IP-адрес размещенного сервера? Я знаю эти вопросы немного новичок, но безопасность не моя сильная сторона.

райкинг (Кейн Йорк)

11

Требуется вход в систему — это довольно массивная блокировка. Так что идите с обязательным входом в систему, должны одобрять пользователей, только приглашать. При такой настройке только учетные записи, которым сотрудники сайта отправляют приглашения, могут видеть что-либо на сайте.

3 лайков

David_Collantes (Дэвид Коллантес)

12

сверхъестественно:

но безопасность не моя сильная сторона

Я настоятельно рекомендую вам нанять знающего человека. Ответы на ваш вопрос уже были объяснены в теме.

1 Нравится

сверхъестественно

13

рикинг:

Итак, зайдите с обязательным входом в систему, должны одобрять пользователей, только приглашать. При такой настройке только учетные записи, которым сотрудники сайта отправляют приглашения, могут видеть что-либо на сайте.

Я отвечал на это заявление и запрашивал дополнительную информацию. Прочтите ветку.

1 Нравится

сверхъестественно

14

Требуется вход в систему — довольно массивная блокировка. Так что идите с обязательным входом в систему, должны одобрять пользователей, только приглашать. При такой настройке только учетные записи, которым сотрудники сайта отправляют приглашения, могут видеть что-либо на сайте.

Спасибо, @riking, это очень полезно. Скорее всего, мы наймем кого-нибудь, кто поможет с дополнительными мерами безопасности. Знаете ли вы, имеет ли предоставление SSL какие-либо дополнительные преимущества для рисков внешнего проникновения?

райкинг (Кейн Йорк)

15

Да, SSL необходим, если вы хотите предотвратить слежение за данными или вашей регистрационной информацией в сети. Это, конечно, не предотвратит слежку через плечо.

При использовании форума, требующего входа в систему, риск утечки доменного имени форума составляет минимум — злоумышленник узнает только (а) версию Discourse (считается неконфиденциальной информацией) и (б) название сайта и логин сообщение страницы.

В любом случае всегда будет происходить «утечка» доменного имени для чего-либо, доступного за пределами сегментированной сети. Так что использовать Let’s Encrypt было бы совершенно нормально (они публично регистрируют все выданные сертификаты, поэтому я поднимаю эту тему).

5 лайков

сверхъестественно

16

райкинг:

злоумышленник узнает только (а) версию Discourse (считается неконфиденциальной информацией) и (б) заголовок сайта и сообщение на странице входа.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *