Artisan

Artisan
Рейтинг
381
Регистрация
04.03.2005
Пишу программы для вычислительных машин, от драйверов устройств, до сложных систем для работы с большим количеством знаний. Умею бережно использовать железо, и другие ресурсы.
Unlock:
Пусть блокируют рекламу, не вопрос.
Дайте вебмастерам возможность делать ответку -
блокировать содержимое сайта, для таких умников.

1. Вместо обычной рекламы будут product placement и другие

способы, которые будут лить рекламу прямо в подсознание.

2. Если не нравится блокировщик,

то можно сделать локальную страницу с

refresh и случайным адресом для картинки,

и открывать страницу на время обеда.

Тысяча голодных web мастеров

будет достаточно для начала.

<html>

<head>
<meta http-equiv="refresh" content="1">
</head>
<body>

<script
type="text/javascript"><!--
x = Math.floor(Math.random() * 1000000);
document.write("<h1>", x, "<img ",
"src=\"http://www.example.com/", x, ".gif\" ",
"width=9 ",
"height=9 ",
"alt=\"\"></h1>");
// --></script>

</body>
</html>

3. И дальше по списку.

idante:
А какой MOZ Rank считать хорошим?

Зависит от задачи,

свое всегда лучше.

Koroluk1990:
А нет возможности эти скрипты не сносить, а оптимизировать?
Ведь если снести, то часть сайта работать не будет. Верно?

Верно, поэтому я написал,

что решение Вам не понравится.

Надо оптимизировать вместе сайт и скрипты.

Причем начинать надо с сайта, а

скриптами на стороне клиента делать только то,

что криво делать на стороне сервера.

Koroluk1990:
Кто еще может подсказать или взяться за решение данной проблемы?
Готов заплатить на ваших условиях :)

Я могу решить Вашу проблему,

но решение Вам не понравится.

1. Снести *все* лишние скрипты.

2. Важные скрипты перенести из

внешних файлов в саму страницу.

3. Настроить keep-alive выдачу

картинок вместе со страницей.

4. Настроить сжатие выдачи.

SamCram:
Делаю сервис по gLTD доменам, хочу вылавливать только те домены, которые не продлили для дальнейшей обработки. Обращаю внимание - нужен простой алгоритм именно для gTLD, который будет опираться на данные из whois.

1. Такой сервис уже есть.

www.leak.info / даром списки полезных забытых доменов

2. Не существует простого алгоритма,

который годится для всех регистраров.

Koroluk1990:
Продвигаю проект под США и в данный момент оставляют комментарии на различных сайтах с ссылкой на свой. Хочется оставить ссылку на самых жирных страницах. Как их найти? Если блог имеет десятки тысяч страниц, то вручную анализировать каждую нереально. Может есть какие-то системы автоматизации, которые могут найти самые авторитетные и максимально "жирные" страницы.

www.leak.info / Internet marketing research

Я вычисляю вес цитирования для 300+ миллионов лучших страниц,

и могу делать выборки из моего списка согласно Вашим желаниям.

Вы можете сами проверять вес цитирования страниц, нажмите

( CITATION RANKING ) кнопку, и впишите URL адрес страницы.

Вес цитирования страниц вычисляется согласно

определению Google PageRank, как вероятность

посещения при случайных переходах по линкам.

MinMart:
Зачем все крупные ресурсы сделали редирект на WWW ?
Yahoo, Google , Yandex, интернет магазины большие.

Традиция с давних времен,

и полезно для рекламы.

akella_30:
Христос Воскрес!
Всех с праздником Великой Пасхи!

Воистину воскрес!

impossible:
Многие не идут из за не знания языка или его боязни.

На курорт они тоже не летают, потому

что не умеют управлять самолетом?

Специализация улучшает производительность труда.

Можно сотрудничать с людьми,

которые знают иностранные языки.

'Egi[s:
;14455166']Так же в виде бонуса готов выдать скрипт по отбору из списка доменов тех, которые являются словарными. То есть есть скрипт, который по списку доменов проверяет, словарное слово домен или нет. Есть чекер трафика по статистике лиру по списку доменов, то есть вставляем список доменов (описал как отбирать для чека на трафик), и проверяем наличие трафика, если стоял счетчик лиру.

Возможно трудящимся будет еще полезно.

www.leak.info / даром списки полезных забытых доменов.

Всего: 6023