Ильяя

Рейтинг
4
Регистрация
17.01.2015

Благодарю за ответы. На данном этапе будет с чем работать.

devkalion:
Прошу не посчитать за троллинг - но microsoft office и его программы подходят для вас.

А проверка уникальности с помощь Advego

Спасибо насчёт Advego.

А с Яндексом получается всё проще? Если в роботс запрещаем индескацию, то даже не смотря на внешние ссылки с других ресурсов, бот не будет индексировать сайт?

CredoLol:
Читается как:

"Спарсил сайт автоматом, выложил на хостинге (на локалке потому что редактировать не получается, а сделать дома апач я не умею), сейчас занимаюсь не спеша вопросами уникализации контента. Как мне не попасть и чтобы все получилось?"

1. Роботс закрывает от индексации надежно (если нет внешних ссылок на документы).
2. От просто открытия в роботс до индекса уникальной морды без писем и ускорений (смотря в какой пс) от недели до месяца. В разделе дорвеев есть дельные советы и практики.

Нет, это читается так, как я написал. Сайт писался с голого листа.

Ladycharm:
Внешние ссылки, это те, которые стоят на других сайтах и ссылаются на ваш сайт. Поставить им nofollow не получится - сайты-то чужие, и доступа к ним нет.

Можно сделать проще - пропишите в .htaccess:

где xx.xx.xx.xx - ваш IP-адрес

Тогда сервер будет пускать на сайт только с вашего IP, всем остальным давать "404 Forbidden".

PS: Это будет работать, если ваш хостер разрешает управление файлом .htaccess
И вы должны иметь статический IP-адрес xx.xx.xx.xx, хотя можно открывать и по маске:

откроет откроет доступ с диапазона IP 212.133.11.*

Спасибо, нужно будет попробовать. Мне всё же интересно. Недавно читал, не помню где, что в гугл вебмастер есть такая функция, что можно на совём ресурсе давать понять поисковому роботу, какие ссылки учитывать а какие нет. Если это действительно работает, то получается что на своём сайте я могу запретить роботам переходить по внешним ссылкам на мой сайт, тем самым не индексируя его?

Ladycharm:
Все изменения отлаживаются на техническом домене(или локально на Денвере), и потом разом выкатываются на рабочий сайт.

Какой смысл был открывать на индексацию, и потом закрывать?

По robots.txt Google продолжает индексировать страницы, на которые есть внешние ссылки. В выдачу может попасть мусор.

Сейчас я понимаю что нужно было сначала всё довести до ума, а после вылаживать проект в сеть. Но как говорится всё приходит с опытом. На ошибках учимся все мы без исключения.

Хорошо. А если помимо того, что в robots.txt прописать запрет на индексацию всего сайта, и внешним ссылкам поставить nofollow. В этом случае Google не будет индексировать, так же?

Думка:
у вас форум?

Это чат, форум определённой области.

---------- Добавлено 22.01.2015 в 18:19 ----------

Не скажете по какому принципу ссылки выстраиваются в столбец?

Gennadi:
все факторы ранжирования сайтов остаются неизменными меняется процентное их соотношение по влиянию на выдачу.

и знаний лишних не бывает

Согласен с вами, что знаний лишних не бывает!

Ну как я считаю, что какие-то основы, ту же терминологию, и вообще общее представление о том что такое SEO нужно иметь, нужно понимать хоть немного как работают поисковые системы. Я это всё мимолётно прошёл, представляю что такое внутренние, внешние, поведенческие факторы, представляю как сайты выглядят изнутри. Но я не совсем понимаю как правильно составлять семантическое ядро, как правильно подобрать наиболее релевантные ключи, сделать карту сайта, robot.txt

Сверстать небольшой сайтик с десятком страниц, набить их контентом и выложить в нет не проблема, или даже взять любую cms набив ее материалом..До этого момента я доберусь, а что дальше?

---------- Добавлено 18.01.2015 в 13:28 ----------

Психиатр:
Вот отсюда: /ru/forum/365295

А ссылку, которую вы дали, там написаны вскользь основы что нужно для того, чтобы владеть сео, и куча разговора, и даже не по теме. Тем более тема с 2007 года. Много чего устарело.