Dmitriy007

Dmitriy007
Рейтинг
80
Регистрация
10.06.2010

Никогда не указывал в TITLE доменное имя. Да и название сайта туда никогда не вписывал, только заголовок страницы - то есть то, для чего TITLE и предназначен.

При разрешении экрана 1024 по прежнему полоса прокрутки, плюс в футере надпись "мы идем в ногу со временем" наползла на отметку о копирайте. Брузер - гугл хром.

Если есть обратная ссылка, то вряд ли индексатор так посчитает. Совсем другое дело, если кто-то скопировал у Вас статью и НЕ поставил обратную ссылку. Вот тогда боты будут считать копипастом именно Вашу статью, а не скопированную.

Стоит. Бот Яндекса может пройти по любой ссылке, тематика его абсолютно не волнует. Тем более, ссылки для Вас бесплатные. После индексации их можно снять, так как Яндекс уже узнает о Вашем новом проекте.

У меня тоже Вебмастер тормозил с 8 апреля и аж до вчера. Вчера написал, что дата посещения сайта роботом 22 апреля. Самое интересное с количеством страниц в поиске и количеством страниц, загруженных роботом. Количество страниц в поиске 40, а загружено роботом только 36😒 (сайт молодой, каждый день добавляется по страничке, sitemap обновляется). А сегодня количества сравнялись - и там и там по 35, но почему-то количество исключенных страниц 0.

Яндекс явно что-то темнит...

polvad:
Новый белый каталог сайтов и статей - "Фиалка".
страница добавления статьи

На странице добавления статьи есть форма "URL страницы с обратной ссылкой (до 100 символов)". 😒

Так каталог белый или все же требует обратную ссылку?

Nadejda, хочу спросить еще кое-что по правильному добавлению контента. Я сначала добавляю новую статью на главную страницу, потом (через пару дней) небольшую ее часть (500 символов примерно) перемещаю на специальную страничку, с которой у меня идут ссылки на все мои статьи (страница второго уровня вложенности), а под саму статью делаю отдельную страницу. На главную страницу, соответственно, добавляю новую статью вместо старой.

Как здесь уже писалось, постоянная смена контента главной страницы (у меня меняется примерно половина контента) напрямую влияет на позицию в выдаче. Уже убедился на своем опыте, сайт скачет как в Гугле, так и в Яндексе.

Возможно, более грамотно действовать следующим образом? Главную страницу оптимизируем под нужный запрос и больше не трогаем. На странице второго уровня делаю анонс (те самые 500 символов) плюс ссылка на страницу третьего уровня, где и размещаю саму статью. Плюс обновление xml карты сайта и пингование нового материала.

Это ведь более правильно, чем первая схема? А то ввел в Гугле предложение одной статьи и получил выдачу сразу на три страницы своего сайта. Не раз в этой ветке писали про дублирование контента и его негативном влиянии на "настроение" Гугла.

Nadejda:

Пример составления Rss странички вы можете посмотреть на любом вердпресс сайте. Ничего сложного, берете код страницы и меняете на свои значения домена и контента(обычно последние 10 страниц ). В дальнейшем вам придется вручную добавлять новые страницы и менять дату.
Ссылку онлайн пинга могу дать.

С RSS знаком, даже сделал страничку, но ни разу ее не обновлял. Я так понимаю, нужно отправлять ссылку на нее (обновленную, конечно) каждый раз при добавлении нового контента?

А то я решил ограничиться обновлением xml карты, считал, что этого достаточно. А можно ли отправлять ссылку именно на карту xml?

Для Яндекса сервис нашел (поиск рулит), а для Google, если не сложно, укажите онлайн ссылку пинга.

Nadejda, благодарю за ответ. Собственно, я примерно так и думал, что единственная защита - это быстрая индексация нового содержимого поисковым роботом. По логам сайта бот Яндекса заходит каждый день (конечно, не факт, что он индексирует), бот Гугла появляется реже. И заметил еще кое-что интересное: чем чаще начинаю обновлять информацию, добавлять странички, тем чаще боты заходят, уменьшают интервал.

Ладно, что-то я совсем от темы ушел, еще раз благодарю за совет.

Добрый день, уважаемые специалисты SEO. Благодаря Вашим ответам на вопросы других форумчан выловил на своем сайте много "блох". Сейчас код более-менее в порядке. Мой вопрос немного нестандартный. Дело вот в чем: сайт написан на чистом HTML и я не предпринимал никаких мер по защите его контента. А сейчас ввел предложение с главной странице - и чудо! - Гугл выдал на него ссылку, причем с совершенно левого ресурса, а не с моего!

Хочу спросить: есть ли сегодня методы защиты контента, которые можно использовать для чистого HTML? Хоть что-то?

На всякий случай адрес сайта: http://zmobilki.ru

Почему спрашиваю? После того, как набил рерайтом сотню страниц, начал тщательно работать над наполнением, последние странички по адвего плагиатус показывают 100% уникальность. Фактически на сайте рерайт, но качественный, все прошло через свои руки, каждое слово, думаю, для поискового робота они уникальны. И не хочется, чтоб кто-то воровал контент. Рерайт - ради бога, но 100% кража без переделки - это слишком.

Ну, если есть желание, можете сказать "пару ласковых" о коде, возможно, где-то не доглядел. Буду благодарен за любые советы.

Всего: 172