- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Поисковики вроде как не сильно ещё смотрят на JS, но всё таки вроде как попандеры, скрипты грузящие трояны и т.д. как-то обнаруживают, но в то же время ссылки написанные допустим через document.write или innerHTML не видят... и CSS файлы не читают... так вот вопрос, что именно из этого по наблюдениям они видят?
По моим личным наблюдениям, ссылки через document.write они палят
ну прямые может и да, а вот допустим искажённые типа:
document.write('http' + '://' + 'somesite' + '.ru'); или
var http = 'http';
var slash = '://';
var name = 'somesite';
var domain = '.ru';
document.write(http + slash + name + domain);
врядли они такое попалят... для этого надо весь скрипт выполнить, проанализировать полученный HTML, внешне его оценить как он выглядит, ведь можно например дивом каким-то закрыть блок какой-то с левым содержимым... так вот интересно, шо они из всего этого могут ловить? ведь допустим за попандеры или какие-то левые рекламные системы можно и БАНан получить...
можно например дивом каким-то закрыть блок какой-то с левым содержимым
Для таких умников там есть ассесоры ;)
Для таких умников там есть ассесоры ;)
а что это?
а что это?
Асессор - это работник, осуществляющий контроль за функциональностью поисковой системы. В его задачу входит предоставление заключения о том, насколько адекватно система реагирует на запросы, т.е. он рассматривает релевантность выдаваемых поисковой системой ссылок на документы по запросу.
Асессор - это работник, осуществляющий контроль за функциональностью поисковой системы. В его задачу входит предоставление заключения о том, насколько адекватно система реагирует на запросы, т.е. он рассматривает релевантность выдаваемых поисковой системой ссылок на документы по запросу.
ааа... ну другими словами админ)
а что всё таки с JS?
Ked32, не каждого, конечно, я и не писал этого. По стуку будут. И, наверняка, робот некоторые варианты отправляет на ручной анализ.
А это как? Подумал-подумал робот, не смог ничего решить, думает: "пусть человек проверит, он сообразительнее". Реально повеселил
Блин, я даже не знаю, как проще объяснить... да, наверняка есть много случаев, когда робот не может принять решение.
Например, какие случаи?
Без понятия, можно лишь приводить досужие размышления. Ну, например, случаи скрытого текста... ведь робот может css не проанализировать и посчитать текст невидимым.
Робот не человек, он не может быть не уверен в своем решении, так как работает по алгоритму, а не "думает".
А теперь пытаемся задуматься. Напрягись, сосредоточься.
Наверняка у робота бывают ситуации, когда он просто не может принять решение. Логично?
Робот не принимает никакие решения, он производит вычисления, согласно алгоритму.
Вычисления? Определения скрытого текста - это тоже вычисления? Ну, конечно, в итоге любое действие компьютера это вычисление... :D Но заявить, что робот яндекса не принимает решений - это смело, да. Уважаю :D