- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
А не посмотрите это сайт www.datime.ru устал биться с ним...сам новичок месяц как продвигаю....достиг определенных позиций потом скинуло немножко и стоит
Будьте добры поясните пожалуйста как с вашей точки зрения правильно оценивать что новая страница лучше показывается в поисковой выдаче?
Да элементарно! Нужно набрать поисковый запрос, под который заточена страница, и посмотреть результаты. Если же страница так глубоко, что ее трудно найти в выдаче, можно проверить так: "запрос site:мой_сайт/*". Гугл покажет странцы сайта, релевантные запросу, в порядке убывания релевантности.Так сразу будет видно, какие из страниц в основном индексе Гугла лучше других соответствуют запросу.
Можете описать по шагам какие действия предпринимаете чтобы как можно быстрее удалить не нужную страницу из КЭШа поисковиков?
Давно не удалял; там Гугл сам подсказывает, что делать. Кажется (проверьте!), страница или раздел удаляются в три приема:
- убивается страница, чтоб возвращала код 404;
- страница закрывается в robots.txt;
- отправляется запрос на удаление.
В течении пары часов этот запрос обработают.
Почему «чистый HTML» удалить проще чем оформленную страницу?
Обычно страницы сайтов формируются динамически, и подчас бывает непросто сделать, чтобы при удалении страницы выдавался код 404 - современные CMS, как правило, имеют код обработки 404-х страниц, который частенько отдает 200. Только из-за этого.
Ага, я поверил. Но поверит ли Гугл?! Тот же вопрос: как только на Вашей главной странице Вы покажете хотя бы ДЕСЯТЬ последовательно идущих слов, которых нет на других сайтах в Интернете - я тут же "Вашу беду руками разведу". Пока же - увы... Вы даже на главой странице не удосужились написать хоть что-то от себя. Попробуйте - а вдруг получится?!
Копипаст - все, начиная от картинок, кончяя описаниями фильмов. И сделано в манере "авось прокатит?".
----------------------
Я вас не просто покритикую - я вааще тут пас. Вас Гугл откритикует - и туда, и сюда, а потом еще так, так и так. А потом начнется группен-"критика" на пару с Яндексом (go to порно-сайты за подробностями). Догадайтесь с трех раз, кого они будут иметь? И так будет и должно быть - пока на ваших страницах не появится хотя бы проблеск мысли. Ну, от силы зачаточек...
PS видимо и яндекс не хочет индексировать страницы сайта именно по этой причине...
Огромное спасибо. Действительно вся база велась и росла исключительно на копированом контенте (как тексты так и картинки брались с других сайтов).
В дальнейшем попробую учесть ваши замечания. Если будет положительный результат (надеюсь что таки будет) обязательно отпишусь.
Действительно вся база велась и росла исключительно на копированом контенте (как тексты так и картинки брались с других сайтов).
Вы верно догадались. Если какой-то там Willie в три счета определил заимствованный контент - то неужели это не сможет сделать многомилллиардная корпорация Google, имея такие сервера в изобилии, что мне и не снилось?! Гугл выкупает не-уникальность на раз-два-три; другое дело, что в отличии от Яндекса, весь пар пускает не в свисток, а в дело.
Проконсультируйте, плиз, по такому вопросу.
Есть сайт годичной жизни - http://my-edu.ru
Попал под АГС17. В индексе Яшки осталось 8 страниц, но в Гугле проиндексирован нормально.
Траф идет в основном с Гугла.
Вот данные за период с 22 по 26 ноября:
Гугл - 3800 запросов
Яндекс - 34
НО!
Процентов 90 трафа с Гугла идет на украиноязычные страницы сайта (таких страниц около 1000).
Русскоязычные страницы находятся в индексе Гугла (таких страниц больше 1000), но сидят так глубоко, что трафа на них почти нет.
В чем может причина, что украиноязычные страницы находятся хорошо, т.е., присутствуют в первой десятке выдачи.
А вот русскоязычные (даже по, казалось бы, "моим" запросам,) - находятся в глубоком подвале выдачи Гугла?
Посещаемость сайта на данный момент более 1000 хостов в сутки (есс-но через Гугл и в основном украиноязычный траф).
Как поднять русские страницы в Гугле?
Спасибо.
Проконсультируйте, плиз, по такому вопросу.
Есть сайт годичной жизни - http://my-edu.ru
Захожу в разделы сайта - что "Книги", что "Софт" - и вижу одно и то же: две строки текста и обилие мест, куда можно кликнуть, чтобы принести Вам денежку.
Поставьте себя на место поисковых систем: за эти две строки они должны ценить Ваши страницы?
diski.in.ua
закрываем кавычки...
Спасибо cerussystems.com и avk-project.com за идиотски длинные описания, вроде бы прояснился их предел для Я.
Захожу в разделы сайта - что "Книги", что "Софт" - и вижу одно и то же: две строки текста и обилие мест, куда можно кликнуть, чтобы принести Вам денежку.
Поставьте себя на место поисковых систем: за эти две строки они должны ценить Ваши страницы?
Согласен :)
На этих двух страницах действительно мало контента - просто там писать особо нечего :)
Но - это мое упущение. Надо действтельно чего-то на эти странички "придумать".
Но, ведь это всего лишь ДВЕ страницы из нескольких тысяч!
На остальных-то по большей части с контеном все ОК :)
Если уж поисковикам "не уважать" сайт - так не уважать полностью.
А то получается, что половина сайта (та которая на украинском языке) - "уважается".
А вторая половина сайта (на русском языке) - полностью игнорируется.
В чем может причина?
А вторая половина сайта (на русском языке) - полностью игнорируется.
В чем может причина?
В том же - в контенте. Почему я так думаю? Сейчас попробую объяснить... захожу на страницу "Обществоведение" и выбираю наугад фразу (попалась "В учебном пособии освещены экономические и неэкономические разделы программы дисциплины"), ввожу ее в поиск Гугла. По этой фразе находится куча ТОЧНЫХ совпадений с других сайтов. То есть, этот материал УЖЕ представлен в Гугле, причем теми же словами, что и у Вас. Спрашивается: ну зачем Гуглу показывать кучу совершенно одинаковых страниц в выдаче, когда их и без того много уже? Вот он и показывает самые авторитетные (по его мнению) из них, а остальные отправляет в "сопли".
Если же таких точных совпадений находится не много, то Гугл может показать и страницы из "соплей", то есть, те, которые считает не ценными. Но отношение к сайту в целом у него уже сложится: если на сайте много страниц, которые не представляют никакой ценности, поскольку информация с них уже есть в Интернете, если оригинальных страниц с уникальным содержанием мало - то такой сайт плохой, и не надо с ним считаться при формировании выдачи.
Я хочу сказать, что если бы Ваши страницы содержали контент, которого еще нет в Гугле - то шансы показаться, тем более по такому длинющему и явно не-конкурентному запросу были бы очень высоки. Если, конечно, страница оформлена надлежащим образом, с учетов его Руководства для Веб-мастеров.
Willie, у меня еще вопрос по проверки текста на уникальность. Вы рекомендуете использовать http://www.copyscape.com. По какой базе сверяет этот сервис? Гугла или как то иначе? Я попробовал выложить чисто html (с копией текста с главной странице) на другом сайте и вставил ссылку на файл сервису http://www.copyscape.com. Он мне ответил No results found for. Т.е. не нашел что по адресу avtostartnn.ru есть точная копия. Хотя если ему подсовываешь ссылку на главную страницу avtostartnn.ru он находит в 2х месках кусок скопированного текста.
Как быть точно уверенным при создании странички с новым контентом что ее содержимое будет видеться как уникальное?
есть ли какие-то сервисы и программы позволяющие оценивать локальный текстовый файл (размещенный у меня на компьютере) на уникальность?