- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Теоретический вопрос.
Что если сделать сайт на котором скрипт будет генерить ссылки и контент бесконечно? Можно сделать так что и ссылки будут разные и контент каждый раз разный, т.е. с точки зрения робота это будет ну ооочень большой сайт. Как будет реагировать паук пытаясь индексировать такой сайт?
ЗЫ Простейший пример - залинковать список поисковых запросов на систему поиска сайта.
Теоретический вопрос.
Что если сделать сайт на котором скрипт будет генерить ссылки и контент бесконечно? Можно сделать так что и ссылки будут разные и контент каждый раз разный, т.е. с точки зрения робота это будет ну ооочень большой сайт. Как будет реагировать паук пытаясь индексировать такой сайт?
ЗЫ Простейший пример - залинковать список поисковых запросов на систему поиска сайта.
видел я подобный сайт - занятная штука ;)
наверно будет по 500 страниц индексировать
а можно еще прикрутить какой-нибудь поисковик и результаты от него анализировать на плотность слов и потом результаты такого анализа выдавать в виде ссылок и ....(по кругу)
включатся лимиты ...
И каковы они?
Есть такое понятие как скорость роста сайта.
Как она вычисляется для каждого поисковика не знаю.
Но как пример могу сказать точно, что если сайт в один прекрасный день вдруг вырастет до огромных размеров, то Яндекс остановится на индексировании 13-15К страниц. Другие брать не будет. А если и будет, то по немного и не сразу.
на другой борде проскакивал пример как изза одного деятеля хостеру целую подсетку забанили в гугле. бот просто заблудился... и блуждал и блуждал...
Если при этом ещё сделать неограниченное число субдоменов, то руками будут банить. :)
Как говорится, "их есть у меня" - большой сайт. Больше 50.000 cтраниц.
Яндекс не остановился, индексирует.
Лимиты не поменялись - 500 страниц за один прием.
Только давайте не забывать, что от нас зависит каким станет инет в будущем. Поэтому надо сайты строить осторожно "не навреди".
Настучат, если кому-то перейдете дорогу.
Только давайте не забывать, что от нас зависит каким станет инет в будущем. Поэтому надо сайты строить осторожно "не навреди".
Ну, в данном случае вопрос действительно теоретический - не более. :)
Кому и зачем нужен безразмерный сайт с "нагенерированным" контентом?