- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Новый сайт нормально проиндексировало в этот ап, порядка 2000 страниц + позиции в хороший плюс.
Подскажите, благодаря роботс.тхт из 240 загруженных страниц 64 попало в индекс (остальное мусор). То, что дубли есть, но не в поисковой выдаче, это ведь не повлияет на позиции сайта?
Дубли есть почти всегда и почти у любого сайта... Элементарно - главная страница сайт.ру и сайт.ру/индекс.хтмл
Для того и нужен роботс, чтобы их убрать из выдачи...
Немного странный АП.
На части проектов заметно движение к откату в сторону предыдущих значений. Для меня это в -.
На некоторых имеем небольшой +.
А вот по одному сайту ситуация странная.
Страниц добавил - это хорошо.
Смотрю сохраненку по одной из интересующих меня страниц (менял тексты, жду когда влезут в индекс)
В прошлый АП сохраненка было 10.07.2013
В этот АП сохраненка 01.07.2013
Как так то???
всё гуд, порадовали новости с утречка;)
Все страницы вернулись, которые в прошлый ап выкинул.
ГСы на копипасте и текстах переведенных с других языков (без правок) сидят в индексе как вкопанные. А сайт который, можно сказать, лелеял, ежедневно добавлял 2-10 уник статей, без рекламы, без единой внешней ссылки - улетел под АГС. Что тут сказать... спасибо Яндекс, ты развеял мои сомнения, теперь буду клепать ГСы.
Позиции после прошлого недоапа так и не вернулись... (((
ГСы на копипасте и текстах переведенных с других языков (без правок) сидят в индексе как вкопанные. А сайт который, можно сказать, лелеял, ежедневно добавлял 2-10 уник статей, без рекламы, без единой внешней ссылки - улетел под АГС. Что тут сказать... спасибо Яндекс, ты развеял мои сомнения, теперь буду клепать ГСы.
зы дебилизм яшки в действии, но возможно что ваш копирайт не оптимизирован
Проодолжается выпадение страниц :( Особенно обидно с одним СДЛ, где 300+ уникальных страниц, никаких ссылок, плюс аккуратно добавляю еженедельно по 3-4 новости. Вообще ничего не понимаю.
Вчера в ответ на тикет (спрашивала, почему не индексируются некоторые ключевые уникальные страницы) пришло:
"Мы проверили, Ваш сайт присутствует в поиске и находится пользователями. Часть страниц, действительно, отсутствует в результатах поиска, при этом никаких санкций на них не наложено. Дело в том, что наши алгоритмы устроены так, чтобы на запросы пользователей давать наиболее полный ответ, и в связи с этим в результаты поиска попадают наиболее релевантные и уникальные страницы сайтов ( http://help.yandex.ru/webmaster/?id=1114408 ). При этом наш робот помнит о других страницах сайтов: если на них присутствуют ссылки, он периодически посещает их, и со временем они также могут быть включены в результаты поиска.
Мы всегда работаем над совершенствованием алгоритмов, принимающих решение по включению тех или иных страниц в результаты поиска, и примеры страниц Вашего сайта переданы в поисковый отдел нашей компании для анализа и последующей корректировки алгоритмов. Внесение изменений в алгоритмы - достаточно сложный процесс, который требует времени, так как затрагивает много различных сайтов.