- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
По поводу технической уникальности текста:
1) ТС пишет о ней абстрактно. Каким шинглом, какой процент уникальности статьи получен?
2) Если генератор выдает статьи, скажем, с 5% уника, то это значит, что КОНКРЕТНАЯ статья совпадает с другой КОНКРЕТНОЙ статьей не более, чем на 5% при использовании заданного шингла. Т.е. при сравнении с 20 статьями технический уник уже может составить 0%.
3) Ничего не сказано о языковом, смысловом качестве результирующего текста. Упоминавшийся в ветке LSI-робот в первую очередь займется отлавливанием а) неправильно построенных фраз б) выявлением нетематичности текста (неподтверждением ключей остальными словами).
4) Корреляционные методы проверки уникальности сегодня используют не только Текст Ру, но и ряд других сервисов. Для проверки факта копирайтинга они более чем уместны, хотя далеко не факт, что рерайт всегда будет ими выявлен.
В контексте разговора о генерированных текстах на сегодня, ИМХО, использовать Текст Ру накладно и почти бессмысленно.
У меня нет сколько-нибудь точной информации, что Гугл или другие ПС корреляционные методы проверки уника используют. Абстрактные заявления оптимизаторов (типа "за плохой рерайт банили, не индексировали, перешел на проверку Текст Ру, стало лучше") в определенном числе имеются. Однако также факт, что если прогнать весь Рунет через Текст Ру, то забанить придется где-то 30-60% страниц. :) А мы этого не наблюдаем.
Моё личное ИМХО - ПС не вводят корреляционные алгоритмы из боязни обвалить рынок.
ПО другим аспектам:
1) Одномоментное размещение 100 сгенерированых статей на одном сайте - явный перебор по любой нормальной логике.
2) Не являюсь владельцем сайтов, не могу поделиться точной статистикой размещения генерированных текстов. Работаю с одним заказчиком, который двигает текстами из моих шаблонов весьма обширную сеть сателлитов из 4 тематических сегментов. Детали мне не известны. Конечно, индексируется не 100% страниц, конечно, в топ по ВЧ никто не вылез, тем более, что такой задачи и не ставилось. Но в целом сеть удовлетворительно индексируется и Г, и Я, живет и растет, свои задачи решает.
Оговорюсь - последние движения по генерации были 2-3 месяца назад. Может уже что-то поменялось, но никаких SOS от заказчика по прежним размещениям не получал.
запроса, по которому должны выдаваться в поиске именно эти страницы сайта
ой ли:) то что более 50% запросов вводятся впервые и больше не повторяются Вас не смущает?)
А то что гугл срыгнул говнотекст... что тут странного, не пойму
Все верно. Количество символов было +-100 символов в каждой статье. Пришлось переписывать. Переписал уже процентов 20. Осталось 80. Терять урлы не хочется:)
---------- Добавлено 01.09.2013 в 23:22 ----------
Уже поздно:)
Возможный выход из ситуации, обьединять по 2-5 размноженных статьи в одну, это должно усыпить нюх гугловских фильтров и анализаторов, также возможно стоит увеличить длину названий статей в 2-3 раза и использовать поменьше вхождений основных ключей, в любом случае это повысит рейтинг сайта в выдаче по основной тематике и будет выглядеть более натурально, также неплохо вставить хотябы уник картинки, склеивая 2-3 картинки в одну или еще какимнибудь способом их уникализировать, а вместо покупки ссылок на статьи лучше давать задания скопипастить с ссылкой на источник т.е на вас (такое проделать с количеством до 35% статей). Ну и могу сказать с увереностью 95% что этим статьям уже гугл поставил клеймо на лоб и единственный выход снести их и проделать дополнительные махинации которые предложены мной и другими участниками формума выше.. Кстате если читабильность и логика статей туповаты, то гугл скорее всего это поймет, там походу какойто логический фильтр есть с признаками искусственного интеллекта и многие трюки со статьями палятся на раз-два..