- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Спасибо. например на вордпрессе сайт. Если я буду просто заниматься регулярной оптимизацией и выкладывать регулярно статьи, то гугл сам заметит сайт, или нужно где то регистрироваться в сервисах гугла? При условии что индексация сайта открыта
почитайте в интернете про базовое СЕО. консоль от гугла и вебмастер яндекса и прочее.
Спасибо. например на вордпрессе сайт. Если я буду просто заниматься регулярной оптимизацией и выкладывать регулярно статьи, то гугл сам заметит сайт, или нужно где то регистрироваться в сервисах гугла? При условии что индексация сайта открыта
Наверное достаточно добавить сайт в google search console, указать там sitemap.
При этом они должны указать автора и источник.
Те, кто крадут тексты - много чего должны, но ничего этого не делают. И не имеет значения, авторский это блог, в качестве оригинала, или же общий сайт и текст за подписью автора. Стирается упоминание, делается при желании небольшой рерайт и все. Дальше возвращаемся к тому, с чего начали - каждый имеет право сказать, что он написал текст и он - первоисточник. Для ПС вообще пофигу кто первоисточник, только через суд, а для этого авторство должно быть зафиксировано. И понеслась дальше проблема.
Так что не надо вводить в заблуждение про "должны", если бы все делали как положено, то не было бы ни дорвеев, ни левых сайтов, ни сайтов нарушающих законодательство стран, все были бы счастливы. Однако все прекрасно воруется, публикуется, снимаются сливки.
Априори, все, что загружено и доступно в Сети - для всех. И единственное как с этим можно бороться - постоянно публиковать отличный контент, чтобы пользователь, рано или поздно, вышел на первоисточник и ждал там эти отличные материалы. Но это время, ресурсы и умение. Труд и терпение, вот что такое сейчас контентные сайты с нуля.
Для ПС вообще пофигу кто первоисточник, только через суд, а для этого авторство должно быть зафиксировано. И понеслась дальше проблема.
Для ПС не пофигу. Кто первый опубликовал, тот и первоисточник. Проблема тут в том, что скорость индексирования небольшого и нового сайта может быть в разы меньше, чем старого и большого. Соответственно, если старый ворует свежие статьи у нового, это может прокатить.
Такое ощущение, что вы пишите из каких-нибудь лохматых нулевых, когда чтобы зарабатывать достаточно было оцифровывать книги или поверхностно рерайтить спертое. Сейчас на таком уже не заработаешь. Такие сайты выкинуты из топов ПС. Сайт должен быть интересным, с экспертным мнением, посетитель должен на нем оставаться и возвращаться. То есть статьи должны публиковаться хоть сколько нибудь но специалистом, а не копирайтером. Такой блогер может статьи улучшать и углублять. Т. е. страницы будут улучшаться. Все это отследить вор не сможет. Поэтому его контент будет устаревать и опускаться в выдаче. Другими словами, сейчас в копировании контента нет смысла. В топ выводятся только сайты специалистов - людей, которые разбираются в теме, о которой пишут.
Для ПС не пофигу. Кто первый опубликовал, тот и первоисточник.
Хорош уже пургу мести.
Для ПС нет никаких первоисточников и им абсолютно пофик кто первый опубликовал. На выдачу это не влияет.
Для ПС не пофигу. Кто первый опубликовал, тот и первоисточник. Проблема тут в том, что скорость индексирования небольшого и нового сайта может быть в разы меньше, чем старого и большого. Соответственно, если старый ворует свежие статьи у нового, это может прокатить.
Такое ощущение, что вы пишите из каких-нибудь лохматых нулевых, когда чтобы зарабатывать достаточно было оцифровывать книги или поверхностно рерайтить спертое. Сейчас на таком уже не заработаешь. Такие сайты выкинуты из топов ПС. Сайт должен быть интересным, с экспертным мнением, посетитель должен на нем оставаться и возвращаться. То есть статьи должны публиковаться хоть сколько нибудь но специалистом, а не копирайтером. Такой блогер может статьи улучшать и углублять. Т. е. страницы будут улучшаться. Все это отследить вор не сможет. Поэтому его контент будет устаревать и опускаться в выдаче. Другими словами, сейчас в копировании контента нет смысла. В топ выводятся только сайты специалистов - людей, которые разбираются в теме, о которой пишут.
Для ПС при ранжировании приоритет отдается хостовым параметрам, а не уникальности. Если РИА Новости возьмут с блога Васи Пупкина статью, то по всем запросам РИА будут выше блога Васи.
Хорош уже пургу мести.
Для ПС нет никаких первоисточников и им абсолютно пофик кто первый опубликовал. На выдачу это не влияет.
Если контент уже присутствует в "базе данных" поисковой системы и его первоисточником помечен сайт А, то позже индексируя идентичный контент на сайте Б, ПС снизит "рейтинг" ресурса Б. Потому что он копипастер и не несет уникальной ценности. Ресурс Б может этого не заметить только в том случае, если по остальным "параметрам" существенно превышает ресурс А. Т. е. например там много своего уникального контента, сайт с высокой посещаемостью и асессор его обозначил как надежный источник. Но репутация все равно будет подпорчена. И совсем другое дело, когда мелкий сайт копирует с крупного. Тут мелкий сразу отправится в бан.
Для ПС при ранжировании приоритет отдается хостовым параметрам, а не уникальности. Если РИА Новости возьмут с блога Васи Пупкина статью, то по всем запросам РИА будут выше блога Васи.
Вася Пупкин по определению не может написать контент ценнее корреспондента РИА. А если у него появляется такой контент то он единичный. Ну и РИА даже заплатит ему. Крупные порталы платят если вы не в курсе.
Если контент уже присутствует в "базе данных" поисковой системы и его первоисточником помечен сайт А, то позже индексируя идентичный контент на сайте Б, ПС снизит "рейтинг" ресурса Б. Потому что он копипастер и не несет уникальной ценности.
Бросай курить эту гадость и обманывать неграмотных! Иди изучай выдачу.
Зачем? Сео сдохло. Но особо упоротые все еще "изучают".
Бросай курить эту гадость и обманывать неграмотных! Иди изучай выдачу.😀
Выдача ничего тут не подскажет, на ранжирование влияет множество факторов. И нужно уточнять, о каком поисковике идет речь - настоящем или бутофорском. Яндекс не учитывает первоисточник, после выпадения из индекса трастового старого сайта он часто становится зеркалом и ничего исправить уже нельзя. Яндекс не скрывает, что не смог создать поисковый алгоритм, способный адекватно учитывать этот фактор. Если они введут этот фактор в формулу, сразу слетят новостные агрегаторы, к примеру, и сам Яндекс. Произойдет самоуничтожение 😀
В отличие от Яндекса, Гугл является настоящей поисковой машиной - сложной, тонкой, умной. И он не может не учитывать авторство контента. При этом, часто качественные сайты (которые по своей специфике наполняются копипастой, например описаниями фильмов или товаров) имеют хорошие позиции и траст. Это и называется "умной и сложной поисковой машиной", её формулу невозможно пояснить двумя словами в топике на форуме, изучить по выдаче. Её разрабатывают годами мощнейшие умы планеты