- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Простите за оффтоп:
Неужели Гугл не может ввести в свою базу дополнительную таблицу и прописывать там дату "первого попадания" контента в индекс, и при дублях контента сравнивать, и определять кто раньше выложил ??? И чхать на "морду" сайта, тут явно будет видно кто ворует.
Ладно там Яндекс со своими апами, н гугл то за пару тройку часов успевает проиндексировать контент практически на любом сайте ...
Возможно я и ошибаюсь, поправьте ...
Простите за оффтоп:
Неужели Гугл не может ввести в свою базу дополнительную таблицу и прописывать там дату "первого попадания" контента в индекс, и при дублях контента сравнивать, и определять кто раньше выложил ??? И чхать на "морду" сайта, тут явно будет видно кто ворует.
Ладно там Яндекс со своими апами, н гугл то за пару тройку часов успевает проиндексировать контент практически на любом сайте ...
Возможно я и ошибаюсь, поправьте ...
Бывает что тыренный быстрее индексируется. Если кто-то через RSS тырит, он публикует почти одновременно и тут уже куда быстрее бот зайдет.
В данном случае, могу посоветовать особо не париться. Продолжать публиковать качественный контент и успех к вам придет. Попутно можно стучать на плагиаторов, может, поможет.
Размещайте тексты без ссылок на них на своем сайте, сообщаете о них поисковикам (форма добавить сайт, или ссылки с других сайтов), и после индексации, только тогда ставите на них ссылки через меню и разделы.
не поможет... проверено, мощный трастовый гыг-гы плагиатор круто взлетит вверх а источник зафильтруют, только клоакинг или что-то подобное в мягкой форме...
Клоакинг не вариант. Грамотный парсер ходит через прокси лист, а настраивать конкретно под гугл, это бан, рано или поздно.
почему бан? например сайты с авто-определением языка по ай-пи живут нормально никто не банит...
Возни много это да, а бан вряд ли...
почему бан? например сайты с авто-определением языка по ай-пи живут нормально никто не банит...
Возни много это да, а бан вряд ли...
Это же совсем другое дело. Гугл ходит с разных ip и видит, что именно изменяется и по каким признакам. Не нужно забывать о ботах-шпионах, маскирующихся под браузеры и вычисляющих клоакинг.
только клоакинг или что-то подобное в мягкой форме...
В смысле, боту одно всем остальным другое? Обычный клоакинг, за который банят. Как его реализуешь в мягкой форме, рефер парсить? Что это даст?
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Нужно организовать публикацию контента через RSS с задержкой, это в ряде случаев увеличит время до кражы контента. А на новые статьи поставить ссылки с blogspot и блогов на ya.ru. Это значительно ускорит скорость индексации и шанс что ваш сайт будет признан первоисточником.
Нужно организовать публикацию контента через RSS с задержкой, это в ряде случаев увеличит время до кражы контента. А на новые статьи поставить ссылки с blogspot и блогов на ya.ru. Это значительно ускорит скорость индексации и шанс что ваш сайт будет признан первоисточником.
За первоисточником в гуле закрепляется право авторства? :)