- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Понимаю, что такой метод не очень может и честный, но все же. Как-то поисковики могут распознать это, если такого текста нет в индексе? Какие в худшем случае последствия могут быть из-за этого? Планирую ставить адсенс на такой сайт, ну или партнерки
Если нет в индексе, то нечего и распознавать.
Вы себе как это представляете? :)
Телепатия конечно изучается, но пока ещё далеко до конечного продукта :)
В 99% книжки есть в эл. варианте, а значит есть в индексе. Если же у вас супер-редкая книга, которой нет в инете - пробуйте)
В 99% книжки есть в эл. варианте, а значит есть в индексе. Если же у вас супер-редкая книга, которой нет в инете - пробуйте)
Что за космическая цифра 99%?! Вы серьёзно? Тут денег не могут выделить, чтобы оцифровать библиотеки, сканеры сутками трудятся. А у вас 99%. Не смешите.
Есть тонны книг, которых нет в библиотеках и никогда не будет.
Если Автор распознает текст, будет куда хуже чем фильтр от гугл )))
Не знаю как в этом мире, но в мире торговых марок, есть целые предприятия, которые выискивают сайты, где используют торговые марки, интересы которых они защищают, и всеми правдами не правдами, сначала пытаются узнать, телефон и имя владельца сайта, а потом подают в суд, а доказать причастность и продажи уже другое дело. И тут как и в сео, только конверсия, 100 исков = пару дел выиграли = профит.
Поезд уехал! Уже даже самые редкие книги давно отсканированны и есть в индексе. В пике популярности САПЫ, целые команды сидели в бибилиотека и отцифровывали все и вся что имело буквы =) Правда половина таких сайтов Яндекс покосил ГСом - так что есть шанс найти что-то уникальное.
Все правильно вы говорите, в 2007-2009 годах, сканировали все что только можно ( в плоть до журналов) и продавали как уникальный контент :)
в 2011м сканировал энциклопедию собак, потом размещал статьи с ссылками через мирку.
Скорее всего можно что-то найти, но маловероятно.
Тоже возникала такая мысль, но не из книжек брать, а из интересных журналов, не всем же хватает времени их читать. Но я думаю, что здесь без глубокого рерайта не обойтись, поскольку чревато санкциями от редакции издания, если случайно найдут.
Книги в формате PDF в 99% случаев окажутся не уникальными. Эти тексты обязательно встретятся на каком нибудь ГС, и в большинстве случает - не на одном. А вот книги в формате DJVU (если нет копий в PDF) зачастую имеют уникальный контент.
Что касается санкций за скан - то много раз слышал о них от незнакомых людей, а вот что касается личного опыта и опыта друзей, то никто за это ни разу не пострадал.