- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Вот интересный момент. Решил помониторить свой коммерческий сайт на буках...
Находится, по позициям много вопросов. Но! Обратил внимание, что в результатах поиска много у каких найденных сайтов внизу дается телефон и адрес. У моего тоже указывается телефон и адрес. Но! Это мои старые координаты! Откуда он их цепляет? В кэше у него уже нормальные контакты. Откуда это вообще берется?
решил глянуть тоже, и пришол к выводу что он цепляет адресса и телефоны из "Яндекс.Адреса"
к примеру есть сайт в выдаче московский, прописывает адресс и телефон региональный, на сайте нету, в "Яндекс.Адреса" есть
да и остальных посмотрел, у кого телефон и адреса показывают тот добавлен в "Яндекс.Адреса", у кого нет тот или не добавлен или в "Яндекс.Адреса" название фирмы на русском, на сайте на английском, всё логично ☝
Интересно ,что за параметры такие могут быть ,если их несоклько тысяч. Наверно в их число входят: фаза луны на момент апа, гороскоп от павла глобы на неделю, количество сотрудников в оффисе яндекса, предсказания Ванги, оставшееся число дней до пятницы и до нового года ...
решил глянуть тоже, и пришол к выводу что он цепляет адресса и телефоны из "Яндекс.Адреса"
к примеру есть сайт в выдаче московский, прописывает адресс и телефон региональный, на сайте нету, в "Яндекс.Адреса" есть
да и остальных посмотрел, у кого телефон и адреса показывают тот добавлен в "Яндекс.Адреса", у кого нет тот или не добавлен или в "Яндекс.Адреса" название фирмы на русском, на сайте на английском, всё логично ☝
В данный момент он цепляет из "Яндекс.Адреса"
скажите спасибо что последнее время хоть что-то сообщают, куда открытее этот "черный ящик" стал!
*все хором СПА-СИ-БО! :)
Читаю, читаю... И вижу, что Я пытается брать пример с западного гугла, но немного своими, кривыми методами.
Только вот одно но. Яндекс совершенно не умеет определять первоисточник контента. А обещают они это уже 2 года минимум. Может быть вместо того, чтобы пытаться шаманить с сео, разобрались бы со своими главными проблемами?
Я смотрю на этот счет никто не высказался.
Я бы высказался, да уже надоело об этом говорить....)) Все равно это говорить нужно не друг другу, так это все и так знают (а те кто не знают - значит не так уж им это и нужно), а говорить надо Яндексу... Провести забастовку чтоли перед главным офисом... Или подать в международный суд "пособничество краже интеллектуальной собственности" или ченить типа того...
В общем и в новом алгоритме, как я посмотрю, проблема с первоисточником осталась, и да, как написал уважаемый lcatlas, яндекс положил на это и борется с сеошниками и дальше, увлекся Яша это войной с продвиженцами... самое важное и полезное для поиска (и для пользователей и для владельцев сайтов) уметь легко найти первоисточник - Яшка у Гугла стырыть то и забыл...
Вообще-то в оригинале речь шла о "нескольких тысячах"
Это что-то меняет?
mhz, мне кажется если алгоритм генетический, он должен непускать не только похожие сайты, но и пересчитать все уже имеющиеся, вдруг там есть нечто похожее, разве нет? А я более чем уверен, что есть.
Просто если он будет убирать один сайт, а потом пересчитывать ВСЮ выдачу, мощностей никаких не хватит на такое, не проще ли было выбрать кластер запроса (к примеру схожие) и пробить по нему?
Если же выдача полностью пересчитывается только во время апа, как и изменяется генетически алгоритм - сайты могут легко до этого пересчета измениться - и произойдет сбой в пересчете алгоритма, разве нет? Алго исключит такие сайты и не будет пускать, но они по сути уже "правильные". Слишком большие бы расколбасы в выдаче мне кажется были... - чего мы не наблюдаем.
Особенно при учете того, что там несколько тысяч факторов.
Если брать в расчет слова Садовского, который говорит, что апы идут постоянно, но выдачу (базы) по той или иной причине они не выкладывают, мне кажется, что БУКИ (а речь сейчас именно о них), работают именно по кластерам.
а вот теперь и не знаю
SEO зашло в тупик. :)
Почему вы не хотите верить в то, что это была подкрутка? Имхо, это очевидно.
mhz, мне кажется если алгоритм генетический, он должен непускать не только похожие сайты, но и пересчитать все уже имеющиеся, вдруг там есть нечто похожее, разве нет? А я более чем уверен, что есть.
С этим, пожалуйста, уже к Вольфу — я про генетические алгоритмы, к сожалению, только в Википедии читал. :)
Но мне не кажется чем-то невероятно ресурсоёмким изменение в формуле ранжирования коэффициента у параметра «возраст сайта». Ну или у другого параметра, даже менее значимого.
не проще ли было выбрать кластер запроса (к примеру схожие) и пробить по нему?
Ну уберут они один сайт, а дальше что? Нанимать кучу негров, чтоб они убирали плохие сайты по заявкам? Фиг знает, фиг знает...
Я там дальше целую тираду написал мыслей ) Просто думал )) И да, речь именно о автоматизации по кластерам. Не по пробивке руками каждого запроса.
Особенно при учете того, что там несколько тысяч факторов.
Я хоть во всех математиках сразу и не дока, и wolf если что подправит, попытался осилить
такую формулу, с одной, для простоты, тысячью параметров, что бы прикинуть влияние одного парметра (min и max) на формулу в целом...
Получилось очень прикольно.:D