- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайт уже больше месяца как добавлен через webmaster tools - из sitemapa гугль регулярно (раз в час) забирает новые страницы. Уже в базе 223 страницы. Не проиндесировани НИ одна из них. Подавал заявку на повторную проверку - получил стандартный ответ - но также НИ одной страницы не было проиндескировано. На сайт ссылается около 20 доменов. Все новые страницы автоматически идут в twitter, buzz.yahoo.com
Вопрос - если удалить сайт из webmaster tools и добавить снова, есть ли шанс что сайт таки будет проиндексирован (в течении пары дней)?
а что мешает самому проверить ?
а что мешает самому проверить ?
Страшно наверное. :)
а что мешает самому проверить ?
Умные люди говорили - что только дураки учатся на своих ошибках :)
Если до конца февраля не проиндексируют - буду сносить сайт и добавлять заново
А вы будете на моих ошибках учиться :)
Мне кажется проблема в сайте, а не в интерфейсе сайт-гугл.
Гугл Вас прекрасно понял: что Вы ему хотите скормить. И даже кушает это. Но делает вывод, что Ваши страницы не должны быть добавлены в индекс.
Что изменит удаление и добавление сайта? Снова представитесь гуглу, он снова Вас выкинет.
1. Достаточно ли уникальных данных у Вас на каждой странице, которую вы скармливаете?
2. Умные люди рекомендуют делать код валидным.
3. А вот еще интересно - вы supplemental.name или другие автоматы используете, чтобы проанализировать состояние индекса гугл?
Имхо, проблема в сайте, а не в том, что гугл Вас не понял и "перезагрузка" индекса мне кажется скорее всего ни к чему не приведет
Мне кажется проблема в сайте, а не в интерфейсе сайт-гугл.
Гугл Вас прекрасно понял: что Вы ему хотите скормить. И даже кушает это. Но делает вывод, что Ваши страницы не должны быть добавлены в индекс.
Что изменит удаление и добавление сайта? Снова представитесь гуглу, он снова Вас выкинет.
1. Достаточно ли уникальных данных у Вас на каждой странице, которую вы скармливаете?
2. Умные люди рекомендуют делать код валидным.
3. А вот еще интересно - вы supplemental.name или другие автоматы используете, чтобы проанализировать состояние индекса гугл?
Имхо, проблема в сайте, а не в том, что гугл Вас не понял и "перезагрузка" индекса мне кажется скорее всего ни к чему не приведет
Данные уникальны на 40-50% - так как сайт новостной по узкой тематике. Новости от компаний под пометкой - for immidiate release - а значит, что через 20 минут все новостные сайты их перепечатывают. Помимо новостей есть уникальные рецензии на научные стать - сами пишу - так что с этим все нормально.
Код вроде нормальный
Про supplimental.name - не понял - поясните, что вы имели ввиду
Есть сервисы, которые позволяют собирать аналитическую информацию по содержанию индекса гугла.
В частности supplemental.name, который может подсказать сколько страниц сайта проиндексировано, всего, сколько страниц находится в основном, сколько в дополнительном индексе.
Число страниц в индексе гугла будет отличаться от кол-ва страниц выведенной на первой странице по запросу site:www.site.com
Так вот, у меня появилась тема, что использование подобных сервисов гипотетически может быть опасно, и гугл за это может пессимизировать оценку сайта. Ищу подтверждения этому или опровержения, поэтому и спросил
Еще одна тема - контент должен быть привязан к странице. Если по Вашей одной и той же ссылке скажем "...?news=25" гугл каждый час получает 95% новую страницу, думаю он ее не всосет.
Есть сервисы, которые позволяют собирать аналитическую информацию по содержанию индекса гугла.
В частности supplemental.name, который может подсказать сколько страниц сайта проиндексировано, всего, сколько страниц находится в основном, сколько в дополнительном индексе.
Число страниц в индексе гугла будет отличаться от кол-ва страниц выведенной на первой странице по запросу site:www.site.com
Так вот, у меня появилась тема, что использование подобных сервисов гипотетически может быть опасно, и гугл за это может пессимизировать оценку сайта. Ищу подтверждения этому или опровержения, поэтому и спросил
Еще одна тема - контент должен быть привязан к странице. Если по Вашей одной и той же ссылке скажем "...?news=25" гугл каждый час получает 95% новую страницу, думаю он ее не всосет.
Сервисы такие не использую - да и смысла нет. По ссылке site:www.fuelcellsinfo.com мне выдается пустая страница :(
По идее у всех новостей идет уникальная страница с постоянным адресом
Формально банить меня не за что было - так что не понимаю в чем дело
Не берусь судить, но ссылки в футтере мне кажутся стрёмными. Очень похожими на sape-овские. Может быть гугл тоже так думает?
Не берусь судить, но ссылки в футтере мне кажутся стрёмными. Очень похожими на sape-овские. Может быть гугл тоже так думает?
Понятия не имею что такое sape-овские ссылки
Скинь такую ссылку сюда - посмотрю
sape-овская - в смысле продажная (sape - название биржи ссылок)
Ваши ссылки на другие домены из футтера как мне кажется похожи на продажные.
Предлагаю Вам ознакомиться с темой продажи покупки ссылок и окончатлеьно сформировать для себя ответ - "почему ссылки из моего футтера не похожи на продажные".
Если докажите себе => ок Если нет => возможно гугл тоже считает из за продажные и это серьезный пессимизирующий фактор. Не уверен что решающий, но точно минус.
И вообще мне кажется что контента уникального у Вас не очень много.
Вот сервис для поиска дублей Вашего контента http://copyscape.com/