- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите до какой степени и в каких количествах надо делать генерацию статей на liex? Допустим статья 5000 знаков. Или на сколько процентов надо изменять ее содержание?
Пишите уникальные, дорого, но зато добьётесь нужного эффекта.
Яндекс их выплюнет со временем, как увидет что они генерированные
Забейте вы на генераторы... Генерируемые говностатьи разпознаются и исключаются из индекса. Лучше руками, но наверняка. :)
Могу процитировать Kamchess'а:
"... по поводу генерации - всё что создаётся машинами, машинами же легко и вычисляется"
Может не сейчас, но со временем - точно ...
А как посоветуете - размещать один вариант статьи на 50 сайтах? Или делать рерайт каждой?
А как посоветуете - размещать один вариант статьи на 50 сайтах? Или делать рерайт каждой?
Если сайты достойные (не каталоги статей и не сети сателитов) - то писать рерайты, и желательно чтобы писали разные люди с разных статей, а то воображение может закончиться и статьи станут получаться сильно похожие.
А если сайты не достойные (каталоги, сетки) то лучше вообще на них не размещать.
P.S. Хотя, что Вам мешает самим попробовать. Плюс от размещения на "не достойных" сайтах тоже есть, только не такой большой и долгоиграющий, как на достойных (зато стоимость такого размещения значительно ниже). Что касается самого вопроса, я делаю процент схожести до 5, статей порядка 100 с одной, из размещения их на 100 сайтах - статей 40-60 попадает в индекс, которые постепенно исчезаю.
Пишите уникальные, дорого, но зато добьётесь нужного эффекта.
А разницы от говностатьи про "окна ПВХ - преимущества" которых господа рерайтеры накатали тыщи как и пользы нет, генераторная по смыслу и содержанию будет не хуже. Уникальность подразумевает новый материал, а не повторение одного и того же.
Ссылка она и в африке ссылка.
234sha добавил 22.07.2009 в 00:48
Яндекс их выплюнет со временем, как увидет что они генерированные
Ага, а потом и алфавит выплюнет, потому как буквы везде одинаковые. Копипаст индексирует, а вы...
234sha добавил 22.07.2009 в 00:49
Могу процитировать Kamchess'а:
"... по поводу генерации - всё что создаётся машинами, машинами же легко и вычисляется"
Может не сейчас, но со временем - точно ...
А потом яндекс начнет проверять правда в статьях написана или нет, может не сейчас, но скоро, точно вам говорю:) А через 1 млн. лет солнце потухнет, что же делать?
234sha добавил 22.07.2009 в 00:49
Забейте вы на генераторы... Генерируемые говностатьи разпознаются и исключаются из индекса. Лучше руками, но наверняка. :)
Сами придумали или прочитали где-то? Поисковая машина не может справиться с ссылкоторговлей, а она будет контент сравнивать в таких масштабах...
234sha добавил 22.07.2009 в 00:52
А как посоветуете - размещать один вариант статьи на 50 сайтах? Или делать рерайт каждой?
Если есть силы, пишите копирайт, если сил мало - рерайт, сил нет - генератор. Если толково пользоваться генератором и потом слегка обработать текст, то от ручного рерайта отличить будет трудно.
При качественном размножении статьи получаются ничуть не хуже рерайта, смысл и содержание статьи сохраняется, а уникальность практически 100%.
Яндекс их выплюнет со временем, как увидет что они генерированные
Полный бред, даже для человека размноженные статьи абсолютно уникальны хоть и похожи по смыслу, а для машин и подавно...
Полный бред, даже для человека размноженные статьи абсолютно уникальны хоть и похожи по смыслу, а для машин и подавно...
Аха, и капчи робот тоже читать не должен уметь... но что то тут не стыкуется.
Мне кажется научить распознавать размноженный текст - не так то уж и сложно. Для этого надо запустить процесс в обратном порядке. Правда это может вызвать значительную нагрузку на ресурсы, но все вышесказанное вполне осуществимо...
Мне кажется научить распознавать размноженный текст - не так то уж и сложно.
А рерайт, блин, это не размноженный текст? 80% рерайта на форуме - хуже размноженного на сотню вариантов текста...