- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
<script language="javascript">
var p, q, x;
p='http';
q='/ww';
x='.co';
document.write('<a href="http://mysite.com"
target="_blank" >');
document.write('<img src="'&p=' +:/+'&q=' +w.mysite+'&x=' +m"> </a>');
</script>
Надеюсь, по таким ссылкам Гугл не ходит?
(на сайте нужно сделать неиндексированными внутренние линки, чтобы PR не утекал туда, где он не нужен)
я не силен в жабе .. но можно его сделать внешним и закрыть robots.txt для надежности
Ходит конечно. 😂
Разбивать надо не адрес изображения, а адрес, на который ссылаешься.
Ну и особо заморачиваться ни к чему - обычного onclick="this.href='http://'+'www.site.co'+'m/page.html'" достаточно.
Да. Еще как проиндексирует. И посолить даже забудет...
Спасибо, понял.
Однако дело не в том что конкретный скрипт - с ошибкой.
Если разбить на куски URL (а не адрес изображения, как сделал я) и засунуть в разные переменные - скрипт такого вида индексироваться Гуглом будет?
И еще вопрос: если предохраняться как рекомендовали:
onclick="this.href='http://'+'www.site.co'+'m/page.html'
это дает 100% гарантию? (по некоторым вопросам у участников форума мнения расходятся -этот не из их числа?)
onclick="this.href='http://'+'www.site.co'+'m/page.html'
это дает 100% гарантию?
100% гарантию разве что клоакинг хороший даст. Потому что то что сейчас робот не поймет - завтра он вполне может научиться распознавать, они же умнеют всё время.
Вроде нет. :)
Googlebot читает javascript. Хорошо ли, плохо ли, но читает. Сегодня не поймет - поймет завтра. Поэтому без клоаки только методом имени Greenwood'а :)
поставь rel=nofollow может он ее и прочитает , но ПР не отдаст.
Ну такие вещи, как a='text'; b='текст'+'текст'+'текст'+a прочитать и склеить не мудрено, но ведь полно скриптов на любом сайте типа hotscripts и т.д., которые постожнее и 99,9% что в ближайшие годы боты их "понимать" не будут, а там глядишь и какое-нибудь другое решение появится. Я думаю по этому поводу не стоит париться.
Можно совсем извратиться и вообше полиморфный код писать. 😂 Ресурс такого скрипта на ближайшие несколько лет обеспечен. Врядли раньше гугл на столько поумнеет, что начнет пытаться интерпретировать скрипты как браузер со всеми циклами и процедурами вызываемыми, например по таймеру. Это не настолько необходимо, насколько ресурсоемко и труднореализуемо. Браузеры то с одними и теми же скриптами справляются по разному. А специально точить ещё и под гугл, точно никто не будет.))
А вообще клоака, конечно самое надежное.
На robots.txt бот может и наплевать, если захочет.
Как вариант ставить куку и все ссылки делать через какой-нить один redirect.php на который передавать ссылку в зашифрованном виде. А в нем отзылать по ссылке если стоит кука. За одно и отдельную статистику вести по переходам. Хотя хрен знает мож боты куки и принимают, неинтересовался. ))
Можно ссылки сделать - внутри Flash мувика, а в него передавать их из файла. Хотя SWF открытый формат и боты может научатся его читать раньше чем JS.
Есть миллион решений как усложнить себе жизнь.
А оно надо?
Врядли раньше гугл на столько поумнеет, что начнет пытаться интерпретировать скрипты как браузер со всеми циклами и процедурами вызываемыми, например по таймеру. Это не настолько необходимо, насколько ресурсоемко и труднореализуемо. Браузеры то с одними и теми же скриптами справляются по разному. А специально точить ещё и под гугл, точно никто не будет.))
Вы хотите сказать, что взять яваскрипт-интерпретатор из Mozilla и пропарсить результат работы любого ява-скрипта - сложная задача для программистов Google? Для програмистов вообще? Вообще для-кого нибудь?
Вы хотите сказать, что взять яваскрипт-интерпретатор из Mozilla и пропарсить результат работы любого ява-скрипта - сложная задача для программистов Google? Для програмистов вообще? Вообще для-кого нибудь?
Для эффективного индексирования, анализа, обработки, ранжирования, выборки и т.д. и т.п. в пределах неск. миллиардов документов требуется помимо гигантских вычислительных мощностей ещё и очень эффективная оптимизация (если хотите упрощение) внутренних алгоритмов, многоуровневое промежуточное кэширование результатов их работы и куча многих других вещей.
Поверьете, алгоритм и AI там не тотже, что в DeepBlue, который играл с Каспаровым, не можелируется ядерный взрыв и т.д. Практически тупо вырезаются не нужные тэги из документа, собирается статистика по словам, их количеству, ссылокам, на всё проставляются различные усредненные коэффициенты типа PR и т.д. и т.п. Всё это многократно кэшируется, что-бы из всего этого бардака можно было практически мнгновенно выплюнуть более менее релевантные результаты.
Там ИМХО я думаю их программисты и научные сотрудники думают прежде чем лишних пару десятков регулярных выражений вписать, а не о том что-бы туда интерпретатор прикрутить(а любой интерпретатор - это далеко не самый быстрый алгоритм).
Простые вещи они конечно парсят.
Особого супер-пупер искуственного интеллекта там нет, за исключением простой семантики. Скорее уникальные статистические и подобные алгоритмы.
Мной имелось ввиду, что интерпретировать JS не настолько необходимо, на сколько оно может отвлечь ресурсов от более приоритетных для релевантного поиска задач.
Всё это моё ИМХО как программиста, и по скольку мне всё равно как у них там это происходит, спорить не буду. Могу если хотите, согласиться с Вами.
:p