- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день. Имеется сайт. Все было идеально. Страницы всегда росли в + с каждым АПом. Переписанные тексты товаров. Ссылки только тематические, региональные, почти все с трастовых ресурсов. Никакого ссылочного взрыва не могло быть так как закупалось все равномерно. Доделана перелинковка сайта. И тут приходит 27 февраля - сайт улетел под фильтр (2 страницы в индексе). До сих пор не могу понять за что? Или это очередной глюк и нужно ждать след. апа?
Пожалуйста просвятите.., кто как думает.
В сапе не торговали сайтом?
Какой поисковик?
Яша, какой ещё =).
_______________
Нет, не торговал. Только закупался... тем более домену уже больше года.. .
сайт улетел под фильтр (2 страницы в индексе).
==================
Пожалуйста просвятите.., кто как думает.
Вот сюда обратитесь - seositemaker.org
Jaf4 добавил 27.02.2011 в 13:06
Яша, какой ещё =).
Бывают и другие поисковики. Например Google.
Ну если это АГС, то он не от ссылочного взрыва бывает. В основном на его наложение влияют такие факторы, как торговля ссылками и неуникальный контент.
Вот сюда обратитесь - seositemaker.org
Там все нормально, там свой человек работает. Насчет торговли, точно не было, потому что сам в этом разбираюсь. А вот контент.., ну был частично копипаст + рерайт, а все остальное уник - больше 70% точно. Просто писать уник на более чем 600 товаров.., тем более конкуренты сидят с полным копипастом (с сайта производителя мебели) и чувствуют себя нормально...
Там все нормально, там свой человек работает.
Да вообщем-то все равно, нормально там или нет, свой или чужой. Вам, судя по всему, делали и двигали сайт за деньги. Сайт коммерческий, т.е. на нем зарабатывают. Мне при таком подходе как бы лень делать аудит сайта, пусть и легкий и тыкать пальцем на недостатки, за которые кто-то получил денег :))
Если есть спец, который занимался сайтом, почему не задать вопрос "почему %subj%" именно ему?
сайт напишите, была похожая ситуация, даже похуже=)
но после написания в яндекс всё стало нормально
Да вообщем-то все равно, нормально там или нет, свой или чужой. Вам, судя по всему, делали и двигали сайт за деньги. Сайт коммерческий, т.е. на нем зарабатывают. Мне при таком подходе как бы лень делать аудит сайта, пусть и легкий и тыкать пальцем на недостатки, за которые кто-то получил денег :))
Если есть спец, который занимался сайтом, почему не задать вопрос "почему %subj%" именно ему?
Насколько я понял, вы подразумеваете, что сайт мог улететь под агс из-за контента?) Я правильно понимаю?)
arthyrgrex добавил 27.02.2011 в 14:02
сайт напишите, была похожая ситуация, даже похуже=)
но после написания в яндекс всё стало нормально
Платону уже отправил =) Глянем на его Робоответ :), а может и норм придет.
arthyrgrex добавил 27.02.2011 в 15:35
Вот ещё что заметил в панели Веб Мастера:
Информация: страницы намеренно запрещены к индексированию или не должны индексироваться.
Документ запрещен в файле robots.txt?
Файл robots.txt содержит директиву, запрещающую роботу Яндекса индексирование этого документа. Чтобы робот мог проиндексировать документ, удалите запрещающую директиву. Проверить, какие страницы сайта запрещены для индексирования, вы можете в разделе «Анализ robots.txt».
1
Ошибка по разделам
Раздел Количество
mebelmir.by
1
как такое может быть если в роботсе эта страница не запрещена к индексации?
Может потому-что контента мало?