Василий Колодин

Василий Колодин
Рейтинг
250
Регистрация
17.12.2008

Ну тут есть 2 варианта.

Если это функционально обосновано - может и нормально отнесется.

Если это скрытие оптимизированного контента, который ненужен в принципе, нафег не нужен пользователям - тогда плохо.

Вопрос - а книги Вы сами писали?..

Я бы вообще поостерегся вешать на этом сайте адненс.

Во-первых - забанят за нарушение авторских прав.

Во-вторых, учитывая тематику, не думаю, что много на этом сайте зарабоатете. А умножив это на первое - поостерегся бы вешать адсенс.

Mantius:
Конечно, надо, это же бизнес - увеличить штат не проблема, если доходы это с лихвой покроют. Плюс это подстегнуло бы развитие, собсно, самого адсенса.

Любая автоматизация сокращает издержки.

Сокращая издержки - компания поднимает свою рентабельность.

Поднимая рентабельность - получает больше прибылей.

Зачем по вашему на всех производствах увольняют рабочих и ставят на их место роботов?

А теперь вопрос - нахрена Гуглю расширять штат, если это не принесет выгоды?

Можно ставить по 3 блока на странице.

Будут это одинаковые блоки или разные - не важно.

Делайте - как Вам удобнее будет.

На непроиндексированный сайт ставить можно. У меня сайты после добавления адсенса даже быстрее в индекс входили.

Т-34:
Задача Яндекса - обучить машину на основе анализа разных факторов отличать SEO-ссылки от естественных ссылок. И это ему удается все лучше и лучше. Даже если скрыть этот файл, это не сильно осложнит работу анализатора.

Задача любой ПС - дать наиболее релевантный ответ пользователю.

А определение естественных ссылок - это лишь один из факторов, но вовсе не главный.

titaniMOZG добавил 29.11.2010 в 21:40

resco:
А потом сам торгует ссылками с наших сайтов!

А потом еще и банит сам себя же )))

arkadiy_a:
Ну ладно Гугл познал Вселенную и раскрыл ее смысл.... Но от Яндекса такого не ожидал....

А ты не знал, что все хостинговые компании принадлежат Яндексу, и по сути, все сайты изначально размещаются в его дата-центрах??? 😂

Это еще одна часть жидомассонского заговора )))))))))

Так же как и фКонтакт - продукт работы ФСБшников ))))))))

SEOmagic:
10 сайтов по 200 статей = 4000 копирайтеру
Где такое бывает?

Если это синонимайз - то бывает.

Я заказываю десяток статей с написанием шаблона под него для синонимайза. По 400 рублей за шаблон.

С каждого шаблона получается 300-500 статей - это если с отсевом на уникальность. Если без него - то несколько тысяч.

Отбираю по 200 вариантов с каждого шаблона, публикую по 20 статей в каждую рубрику на каждом сайте. Т.е. получается что на каждом сайте у меня 10 рубрик, по 20 статей в каждой.

Если писать все от руки - по 30 рублей/статья на 1000 знаков. Тогда конечно совсем другие цифры будут для такой сетки, даже при такой цене )))))

Я клепаю сайты на Жумле.

Делаешь десяток сайтов, подкручиваешь шаблоны.

Заказываешь синонимайз (дешевле) или копирайт/рерайт (качественнее).

Берешь тексткит, указываешь настройки для подключения к сайту и публикуешь.

У меня сделать десяток таких сайтов с 200+ статьями на каждом занимает 3 дня + 4000 рублей копирайтеру.

В Sape Master проверки выполнятся не для всех, а только для отмеченных сайтов. Что значит, что вы можете проверить сайты по одному параметру. Отказаться от не пройденных или отметить те, которые прошли проверки. Проверить на второй и т.д.

Я это понимаю, вот только у Вас почти три десятка параметров, по которым можно фильтровать сайты. Таким образом, получается, что мне каждый раз нужно будет открывать это окошечко, выбирать нужный параметр и запускать проверку.

Это возможно, но неудобно. Если каждую проверку опять же сохранить как пресет - это уже будет куда проще.

Если проверку совместить с фильтром, что бы проверялся параметр и тут же сравнивался с условиями фильтра - это будет еще проще, собственно плагин винка так и работает - он проверяет и сразу отмечает, что под критерии не подходит.

Если же несколько таких последовательных проверок и фильтров можно будет вообще назначить на одну кнопку - то тут цены не будет.

Не понял проблему. А как вы предлагаете фильтровать позиции по параметру, который вам не известен, без данных?

Я предлагаю просто проводить ступенчатые проверки, одна за другой, а не сразу все.

Автомат, пока в бета версии, уже есть в текущей реализации. Разрабатываем.

Видел, изучаю. :)


Спасибо за отзыв.

Пожалуйста :)

ddvhouse:
А чем оно отличается о Sape Master? И там и там используются регулярные выражения. Абсолютно стандартные.

Основываясь на демоверсии, могу сказать, что плагин винка работает в разы быстрее. За счет того, что сначала проверятся все одним фильтром, потом оставшиеся - другим, оставшиеся - третьим и т.д. Т.е. каждая последующая проверка затрагивает только то, то осталось после предыдущей. Как итог: 1000 заявок у меня разбирается за 3-4 минуты.

В СапеМастере - выполняются все проверки для всех сайтов.

Допустим.

Как пример:

Я фильтрую сайты по следующий фильтрам в такой последовательности:

LF, GC (GI), H, Cn, YP, BC, TF.

Допустим, у меня пришла 1000 заявок.

LF - отбрасывает минимум 50%, т.е. остается уже 500 заявок.

GC - проверка на индекс в гугле. Работает быстро, и большой процент выбраковки, еще процентов 50. Итого остается уже 250 заявок.

H - проверяю число в индексах. Выбрасывает 1-3%. Можно пренебречь.

Cn - сравнивает соотношение индексов между Гуглем и Яшей. У меня поставлена разница в 100 раз. Если в Яндексе 10 000 страниц, а в Гугле не больше сотни - что то тут не чисто. Я так считаю. Выбрасывает процентов 5-10%, т.е. остается около 230 заявок.

YP -проверяю индексацию в Яше. Запускаю ее только на 5-м этапе, т.к. XML жалко, и так не хватает. Отбрасывается процентов 20-25%, итого остается около 180 заявок.

BC и TF - проверка внешних ссылок и контента. Тут процентов 50-70 от остатка вылетает. Остается в лучшем случае штук 50.

На самом деле, после всех проверок остается всего ссылок 20-30 из тысячи. Что бы осталось 50 штук - это просто фантастика.

В СапеМастере интересна, конечно, проверка на уникальность и проверка средних цен. Но как понимаете, сделать эти проверки для оставшихся 30-50 заявок - куда быстрее, чем для всей 1000.

Один неоспоримый плюс, который у Вас есть - это сохранение разных фильтров. Но ведь что бы ими воспользоваться, необходимо провести проверку данных, что и занимает много времени и много ресурсов. Тот же лимит в XML-ле будет спускаться просто со свистом.

Мое предложение о том, что бы сделать в программе сценарии, которые позволяли бы проводить проверку по заданным критериям и потом по этим критериям фильтровать, потом проводить следующую проверку и применять следующий фильтр и т.д. - тут уже было. Вот тогда по скорости работы и удобству - Ваша программа будет действительно лучше, если только Винк не прикрутит к своему плагину опцию сохранения шаблонов проверок/фильтров, уникальности и анализу цен. :)

А так, пока что я вижу, что 3/4 пользователей, не совсем по душе пришелся софт.

Успех любого софта зависит не только от того, насколько он функционален, но и от того, насколько он удобен в обращении. У Вас функционал хороший, но удобство - хромает. Это мое личное мнение.

Всего: 2277