Спасибо!
2plast: Я отдаю предпочтение гармоничности, читаемости и человекопонятности генерируемых статей (писал об этом изначально), поэтому подбор синонимов осуществляю очень тщательно. Согласитесь что, не ко всем словам/словосочетаниям в тексте можно подобрать синоним, который не испортит смысла всего предложения. Главное, что уникальность для ~ 300 текстов превышает обычно 85-90% по алгоритму шинглов, который вероятно используют поисковые системы. Однако учтем Ваши пожелания, т.к. клиент всегда прав.
Внимание! Опускаю цены до 1$/100 знаков без пробелов. Свободен для заказов.
Давно пользуюсь сервисом. В-целом очень доволен. Прогнал уже несколько сайтов по статьям. Как и писали Выше, подтверждаю: валятся порядка 250 - 300 писем на ящик, по тематике проходят обычно около ~150, поэтому много отклонений на размещение. Сам выполняю профессиональное размножение статей, обращайтесь.
Полностью согласен. Да и слишком уж много мороки с копирайтом. Для себя нашел оптимальный метод по затратам и эффективности, который и описывает ТС: написание нескольких статей (1-3) и их размножение.
Ок, сегодня постараюсь сделать.
Ок, статью получил. Постараюсь сегодня выполнить и выслать работу.
М.. Ок. Сделаю и Вам статью за Ваш отзыв, учитывая Вашу серьезную репутацию. Но прошу остальных учесть, что plast будет последним, кому работа выполняется бесплатно за отзыв. Остальных прошу обращаться согласно указанным тарифам.
От Вас также:
1. Список ключевых слов с соотв. ссылками (при необходимости)
2. Указание способа отбора статей (конкретное количество/порог схожести в %)
3. Вид предоставления статей (в едином файле/в виде отдельных файлов, разбитых по папкам с указанием интервалов схожести)
4. Собственно сама статья
Ок. Есть второй. Сбрасывайте статью по e-mail: am{a}jinnweb.ru.
Скромный малый добавил 03.03.2009 в 13:55
2Estelia & 2xGrey:
Хорошо. Будете первой. Сбрасывайте по e-mail: am{a}jinnweb.ru.
Поделюсь собственным опытом: закрыл индексацию с помощью robots.txt:
User-agent: *
Disallow: /
User-agent: StackRambler
Disallow:
первая запись - для яши, гугла и др., 2-я для рамблера (вроде как 1-ю он не понимает)...
Яша выкинул из индекса через 10 дней. Затем я (через 14 дней после создания robots.txt) удалил robots.txt. На этот момент, ни гугл не рамблер еще не успели отреагировать. Сайт вернулся в Яшу, НО позиции его по продвигаемым ключевикам упали в 3 раза и тенденции к их повышению нет. До этого, сайт держался на нормальных позициях с полгода.