- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А вашим FriendSiteX.ru за такие статьи рано или поздно кирдык придёт
Согласен. Это конечно рабочий вариант, но не долговечный, яндекс сейчас довольно легко сечет такие "уникальные" статьи. И куку.
OSTG, Знаете, складывется ощущение, что Вы пытаетесь частный случай првратить в обобщенное правило.
Уважаемый, ну зачем же так выражаться! Если вы будете немного внимательнее читать пост, вы обратите внимание, что я всего лишь СОВЕТУЮСЬ!
PS Желая создать очередной сапоподобный лохотрон можно и не строя подобных теорий.
А тут не скрою, я бы хотел чтобы из этого что-то получилось, но уж точно в лохотрон я вкладывать силы и средства не хочу.
Я понял что вы невнимательно изучили алгоритм!!! Речь идет не о простой перестановке. Речь идет о ВЫБОРКЕ! Предложений вы заполняете сотню штук, к примеру, а вот выборка статьи осуществляется скажем по рандому от 3 до 10. Т.е. вероятность повторений - очень низкая!!!
самый простой вариант отследить дубликаты:
при создании индекса страницы в базе пс, привести все слова к нормальной форме, исключить стоп-слова и повторы, отсортировать полученные слова а алфавитном порядке - и вот ваши дубликаты :)
Это конечно рабочий вариант, но не долговечный, яндекс сейчас довольно легко сечет такие "уникальные" статьи. И куку.
Ваше мнение принято. Спасибо. Искренне.
OSTG добавил 04.12.2008 в 16:23
самый простой вариант отследить дубликаты:
при создании индекса страницы в базе пс, привести все слова к нормальной форме, исключить стоп-слова и повторы, отсортировать полученные слова а алфавитном порядке - и вот ваши дубликаты :)
А вот тут обломс. Ибо ключевики будут разные (если делать статью с умом), картинки - тоже, альты картинок - тоже (ограничений по количеству нет). Ну а то что слова в текстах будут повторяться - ну так пишите больше предложений, выборка будет более уникальной!!!
Зато вам не придется вручную собирать все это руками.
Шингл бэлс, шингл бэлс.
Шингл бэлс, шингл бэлс.
Ну наконец!
Спасибо, коллега, за музыкальное оформление! :)
Ну, мне алго видится в таком свете...
для примера я возьму некий магазин-витрину товаров.
Как бы сделал, я (а точнее уже делаю):
1. Есть некая товарная позиция которая уже описана различными параметрами, ценами, к ней (к товарной позе) я добавляю список ссылок различного вида, но сугубо относящиеся только к этому товару.
Например Автомобиль Honda Civic:
Ссылки: Купить Civic, Купить Honda Civic, Хонда Цивик, Диллер Honda Civic, Honda Civic в Урюпинске, Honda Civic с пробегом, Описание Хонда Цивик ......
2. Далее добавляем абзацы описаний этого именно этого товара + кучу фоток + я бы еще и ссылок на видео с ютуба нарыл. Всего этого чем больше тем лучше, можно рерайтить, заказывать уникальные, тупо тырить.
Этот подход такой же как и у ТС.. вроде =)
3. Далее, идя от частного к общему, повторить операцию для разделов/групп товаров/услуг
4. Клепаем шаблоны
5. По шаблонам скрипт генерит (тут уж отдельная песня, в каком порядке, какой рандом) и складывает в пампочку страницы нового сайта. Покупаем домен, или заливаем на фрихост.
6. Качество на выходе пропорционально времени затраченому на предыдущие шаги.
В принципе я не вижу проблем с ПС если подойти к вопросу архи-ответственно.
Опять спалили тему.
Я больше года назад такой скрипт написал для себя. Только сайтами это назвать язык не поворачивается...
Дорвеи чистой воды. Это же Марков, причем 0-ого порядка. Только вместо слов - целые предложения.
И кратко по теме... Сайты в индексе сидят шикарно - целый год из 50 предложений сайты по 2000 страниц. 1850 постоянно в индексе. Текст случайно разбавлен картинками. УРЛ не дам, потому что и так уже спалили все...
Уважаемые коллеги, я здесь за советом.
Несколько лет назад я разработал (возможно не я один) алгоритм, который позже проверил на Яндексе. Не скрою, алгоритм немного читерский, но если подойти с умом (при формировании текстов статей) он очень даже замечательно работает на донорах (вот уже третий год проверяю - плоды прекрасны)!!!
Некоторое время назад я решил для экономии времени и облегчения обмена статьями между своими сайтами написать скрипт, потом скрипт преобразовался в систему под которую я арендовал отдельный сервак. Вот, наконец, она готова для тестирования.
Систему я здесь рекламировать не буду (кому интересно, пишите в личку - дам ссылку для тестирования), а вот алгоритм выношу на обсуждение. Мне было бы интересно узнать ваше мнение - чем его можно было бы дополнить/урезать/узменить.
а можно ссылочку в личку. я гляну. а то читаю все ваши высказывание и мне стало интересно.
Шингл бэлс, шингл бэлс.
именно.
А крутиться такими статьями... Сколько подобная тема ещё будет актуальна (если всё-ещё даёт какой-то выхлоп)? Пол года, месяц? Дорвеи тоже когда-то рулили.
А спать и видеть страшные сны про выпадение из серпа ))
ТС, Вы, имхо, экстремал ;)