- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
100% текcты дерьмище...
Еще я рад что нет АГС)))
А зачем их всё же на сайте держите? Или если их убрать, то сайт пустой будет? ))
А зачем их всё же на сайте держите? Или если их убрать, то сайт пустой будет? ))
Да вот Незнаю, жду манны небесной, а вдруг трафа дадут))))
Да солью наверно их к е......... Матери ))))
Здравствуйте заметил одну закономерность, если делаю сам сайт и сам пишу статьи, все хорошо, как только создаю новый сайт и все тексты заказываю на бирже копирайтинга, то сайт попадает по АГС в яндексе.
Хоть тексты и показывают 95 -100% уникальность, мне кажется копирайтеры халтурят, может вручную генерируют текст, а поисковики умнее и замечают это. Кто что скажет?
На разных системах проверки (проверяю на етхт, адвего и текст ру) показывает по разному.
Вы слишком шаблонно мыслите. Копирайтеров с биржи не очень правильно проверять стандартными шинглами, т.к. это всё довольно легко обходится, при должном опыте. Поисковые системы шинглами не проверяют. Например, еще в 2002 году был опубликован доклад Яндекса An efficient method to detect duplicates of Web documents with the use of inverted index, в котором описан метод определения дублей с использованием инвертированного индекса (перевод). Как вы думаете, далеко ли они смогли продвинуться в этом направлении за последние 12 лет? :)
Ой ой, IBakalov, жжёте )
1. Инвертированный индекс - это всего лишь способ хранения данных, для поиска по вхождению слов. Почему-то принято называть его "текстовым", хотя такой индекс используется для организации самых разных данных. Никакого отношения ни к уникальности ни к её проверке он не имеет.
2. Проверка шинглами это способ проверки уникальности канонами. Единственный точный способ.
3. "Нечетка цифровая подпись" это результат сверки (обычно как раз шинглами) не два текста напрямую, а через третий эталонный текст. Обычно используют некоторое множество слов в качестве третьего "текста". Этот быстрый и легкий способ получения интегральной характеристики документа, которую можно использовать для самого разного в т.ч. для определения уникальности. Не очень точный способ сам по себе, но очень динамичный и гибкий в сочетании с другими средствами. Специальный список для интернет магазинов, известных движков - и мы получаем подписи документов без учета всяких служебных слов шаблона. Отдельный список на каждый сайт - и мы вычищаем из документов элементы интерфейса и всякие информационные блоки. Все легко и быстро.
Всем этим способам тыщу лет в обед.
И Яндекс в 2002 предложил всего лишь хранить п.3 используя п.1. Видимо он наделал столько списков и различных подписей, что уже нуждается в специальном поиске по всему этому делу. В общем-то оно и понятно учитывая гибкость русского языка.
Как видите ничего особенного, ничего удивительного и уж тем более ничего "продвинутого" в этом нет :)
з.ы. "перевод" просто жесть ))) походу бедный переводчик нехрена ниче не понимал, но ценой неимоверных усилий таки слепил )
Видимо, в текстах сплошная "вода". Если они уникальны, но Вы ловите фильтры, значит, именно в ПФ все дело - слишком быстро пользователи закрывают страницы. Второй вариант - ужасный дизайн и/или юзабилити (что тоже быстро отпугивает посетителей).
За бесполезный, но уникальный и не переспамленный текст фильтры не дают - просто в выдаче ставят низко.
Видимо, в текстах сплошная "вода".
Люблю иногда почитывать разные сказки, побасенки, креативчики.
И представляете, в текстах сплошная вода. Яндекса на них нет 😡
Никто не банит и не "фильтрит".
Думаю что тексты гавно
я когда пишу это в ответ на вопрос "почему на сайте нет трафика", то народ обижается.
---------- Добавлено 11.12.2014 в 14:29 ----------
За бесполезный, но уникальный и не переспамленный текст фильтры не дают - просто в выдаче ставят низко.
ответ неверный
Есть сайты с несколькими страницами строго по теме. В последние несколько месяцев, там, где не было трафика сайты попали под АГС. На сайтах ничего не менялось, ссылок исходящих нет ни плохих, ни хороших, содержимое уникально.
Как всегда мнения разделились, у меня есть сайт которому 3 года, там хромает и стилистика и грамматика, русский язык не мой родной, я тогда его изучал, тексты первые получались ужасные. Но сайт держится в топе и посещаемость большая (3000-3700 чел в сутки). Просмотры на посетителя 2,1-2,3 сайт завален рекламой.
Но статьи писал сам, потом уже начал покупать, когда устал писать, и каждую статью сам перечитывал, добавлял сои слова, что то исправлял, что считал не верным.
Кто то писал о заголовках, что все должно быть правильно расписано, есть статьи которые имеют только один заголовок (h1, а есть что имеют с h1 по h6)
но обычно только с h1, есть страницы на несколько предложений (1-2) и сидят в топе.
Я не думаю, что копирайтеры Вас очень сильно обманывают. При заказе текстов через биржу проверка контента осуществляется не только Вами, но ещё и самой биржей. С технической точки зрения (уникальности) всё должно было нормально. За всё остальное несёте ответственность только Вы. Вас же никто не заставляет принимать тексты, которые Вас не устраивают, правильно?