- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кто-нибудь замечал вред от этого, если разом так проверять 10-50-100 одних и тех же сайтов после каждого апа? К примеру, в виде повышенного внимание к группе сайтов и их одновременному вылету потом.
не пробовал.
подкрученные гайки в алгоритмах Я в последнее время вызвали у меня обострение мании преследования.
массово через прокси проверяю индексацию. через xml сыкотно как-то.
можно сделать 2 пачки сайтов, и про одних совсем "забыть" :) вот по результатам эксперимента и увидишь что к чему
4arger, тоже перестал черех xml проверять.
Grimich, думаю, одного эксперимента будет мало.
Grimich, думаю, одного эксперимента будет мало.
сделай два )
чекаю софтинкой XChecker через прокси, вреда не было :)
раз в сутки, на автомате херячит по гуглу (основной, дополнительный), яндекс, рама если надо.
много месяцев. нихрена вылет от этого не зависит.совпадения всякие бывали, но совпадения.
а что мешает одновременно со своими дорами чекать соседей по топу? 🙄
раз в сутки, на автомате херячит по гуглу (основной, дополнительный), яндекс, рама если надо.
насколько знаю дополнительного индекса нет в гугле с 2007 года, по крайней мере так утверждает сам гугл.
Можете проверить правду пишет гугл или нет сами, ранее все проверяли сопли через -inallurl. Сейчас типа работает запрос site: с "/&" после домена.
Например берем первый попавшийся дор и делаем запрос раз видим 40 страниц в индексе.
Подставляем "/&" после домена и делаем запрос два видим 20 страниц в индексе, по утверждениям эти 20 страниц якобы и находятся в основном индексе, а остальные в соплях и не влияют на выдачу.
Что мы делаем берем тайтл страницы из первого запроса которого нет во втором запросы, те эта страница должна быть в соплях и ее не должно быть в выдаче.
Делаем запрос три - вот вам и ответ.
насколько знаю дополнительного индекса нет в гугле с 2007 года, по крайней мере так утверждает сам гугл.
Можете проверить правду пишет гугл или нет сами, ранее все проверяли сопли через -inallurl. Сейчас типа работает запрос site: с "/&" после домена.
Например берем первый попавшийся дор и делаем запрос раз видим 40 страниц в индексе.
Подставляем "/&" после домена и делаем запрос два видим 20 страниц в индексе, по утверждениям эти 20 страниц якобы и находятся в основном индексе, а остальные в соплях и не влияют на выдачу.
Что мы делаем берем тайтл страницы из первого запроса которого нет во втором запросы, те эта страница должна быть в соплях и ее не должно быть в выдаче.
Делаем запрос три - вот вам и ответ.
приятно носом ткнуть?
а мне как, надо было по полочкам раскладывать для чего я делаю?
так косвено проверяется мной некоторые способы продвижения (спам) , качество линковки и текст.
Кто-нибудь замечал вред от этого, если разом так проверять 10-50-100 одних и тех же сайтов после каждого апа? К примеру, в виде повышенного внимание к группе сайтов и их одновременному вылету потом.
бред
10 раз бред