- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Есть сайт (англ.)... Около 1,5к страниц... Расставляю ссылки внешние... Гугля понемногу все хавала... Схавала около 1к... но вот уже несколько дней больше половины датацентров показывает больше 10к (!!!) страниц у моего сайта (смотрю по http://www.yourcache.com/check.php)...
Это временный денс/глюк/... Гугли?! Или какая-то "недобрая" тенденция?:eek: :confused:
Кто что думает по этому поводу?
адреса динамических страниц, небось, с параметрами?
то же самое (:
на сайте max 2500 страниц, сессий нет
а google уже 3ю неделю показывает, что проиндексировал 12000
адреса динамических страниц, небось, с параметрами?
Нет... Страницы без параметров, "функционально" php, конечно :)
Но они все через модреврайт html-ные... и все поисковики, в т. ч. и Гугля видят их как blablabla.html ... и вот этих страниц в 10 раз больше чем есть на самом деле...
вот и еще у одного человека такое же видимо...
Вобщем, я вот тут подумал... единственный вариант, и то, так сказать, "лишь бы что-то придумать" :) , так это то, что может Гугля склеивает с другим сайтом-конкурентом...
но контент пересекается лишь частично... и то не на всех страницах... и процент схожести низкий... хз короче...
Может это с апдейтом ПР связано?😕 Хотя причем тут ПР к страницам в индексе😕
может это обьясняется следующим:
(цитата с вебпланеты о недавнем 5и миллиардном спаме google, http://www.webplanet.ru/news/internet/2006/6/26/google_spam.html)
может это обьясняется следующим:
(цитата с вебпланеты о недавнем 5и миллиардном спаме google, http://www.webplanet.ru/news/internet/2006/6/26/google_spam.html)
Вряд ли...
Даже вручную проверяю inurl:-ом, все равно 11300 страниц при реальных 1500... 😕
а траф как? а то у меня, например, он прямо пропорционален количеству страниц по site:
а траф как? а то у меня, например, он прямо пропорционален количеству страниц по site:
Ну я на заметил "пропорциональности"...
"обычный" "средний" рост трафа...
скажем так, в 10 раз он не вырос 🙅
такое не редко встречается. причем даже на абсолютно статичных сайтах. придумать этому объяснение так и не удалось.
на некоторых датцентрах собирается с других для обработки (промежуточные результаты)
greenwood, а если показывается в несколько раз больше страниц в течение нескольких месяцев? не похоже на промежуточные результаты...