- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Буквально пару часов назад, зайдя по адресу https://www.google.com/webmasters/tools/submit-url, увидел следующую картину:
Похоже что все, лавочка прикрылась, и теперь единственный адекватный вариант загонять страницы в индекс это используя Twitter, и прокаченный до безобразия Google+ профиль.
Мда уж, сначала Яндекс, теперь Google, дальше что? Bing?! =)) А если по теме то реально новость хреновая, особенно для моих информационников, которые вряд ли смогут конкурировать теперь с прокачанными ресурсами на которых быстро бот живет....
Не ну а что, давно пора. Гуглу хорошо от этого.
А если по теме то реально новость хреновая, особенно для моих информационников, которые вряд ли смогут конкурировать теперь с прокачанными ресурсами на которых быстро бот живет....
А это тут при чем?
Для своих подтвержденных сайтов есть "Посмотреть как гугл бот", и там ничего не изменилось. А вот загнать какую нибудь Г страницу, на чужом сайте, с поставленной на себя ссылкой, уже да, не получится....
А вот загнать какую нибудь Г страницу, на чужом сайте, с поставленной на себя ссылкой, уже да, не получится....
Не уверен, что это правда :)
http://saney.ru/blog/seo/google-index-fast/
/ru/forum/comment/15663931
/ru/forum/comment/15654994
Не уверен, что это правда :)
http://saney.ru/blog/seo/google-index-fast/
/ru/forum/comment/15663931
/ru/forum/comment/15654994
С редиректами тему уже прикрыли.
Про третий вариант знал, но думал, что нельзя blogger.com себе в вебмастер добавить, так как не подтвердить. А прочитал Ваш пост и решил попробовать добавить. И вуалая, оказывается, подтвержать не надо. Спасибо :)
С редиректами тему уже прикрыли.
Про третий вариант знал, но думал, что нельзя blogger.com себе в вебмастер добавить, так как не подтвердить. А прочитал Ваш пост и решил попробовать добавить. И вуалая, оказывается, подтвержать не надо. Спасибо :)
Редиректы работают и в fetch as google, и в sitemap.xml - я 5 сек назад проверял :)
Еще не тестил, но сам подход заинтриговал indexme.site
С редиректами тему уже прикрыли.
Вы путаете обратный вес на свой сайт с редиректа, который прикрыли.
А индекс прямого перехода как работал, так и работает.
Единственное, лучше кодируйте урлы каким-либо своим способом в параметре, а не вставляйте в чистом виде.
Вы путаете обратный вес на свой сайт с редиректа, который прикрыли.
А индекс прямого перехода как работал, так и работает.
Единственное, лучше кодируйте урлы каким-либо своим способом в параметре, а не вставляйте в чистом виде.
Я загон в индекс через параметр тоже тестил, но видимо как-то криво написал скрип редиректа, что он не сработал.
vga1, Google выдает ошибку, если в поле ввода fetch as google есть фраза http. По-этому, туда надо вставлять только адреса без http. А в самом скрипте редиректа уже добавлять нужный протокол. Вот код из моего редиректа, написанного на коленке. Я много лет ничего не менял там. Все работает прямо сейчас и добавляет чужие страницы.
<?php
preg_match("/\.php\?url=(.*)$/", $_SERVER['REQUEST_URI'], $matches);
header("HTTP/1.1 301 Moved Permanently");
header("Location: http://".$matches[1]."");
exit;
?>
Палю еще одну тему для индексации своего сайта. Все-равно никто не будет использовать, скажут, что скоро забанят 🤣
Можно в пингатор xml карт пинговать xml карты, состоящие из 1 страницы. Гугл большие карты отправляет далеко в очередь и повторно раз в неделю скачивает. А маленькие, хотелось бы думать, что в начало и по-чаще.
А в самом html коде этих страниц надо создать ссылку:
Все роботы, которые шастают по страницам, будут пинговать карту, состоящую из одной ТЕКУЩЕЙ страницы с разных ip.
Файл sitemap.xml?url=www.mydomain.com/page1.html должен выдавать xml карту сайта из 1 страницы с сегодняшней датой обновления.