- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Значит имеется шароварный сайт, для размещения информации о программе на софтверных архивах многие их них просят обратную ссылку на их сайт. Сделал так, создал страничку на которую свалил все эти ссылки на архивы. На эту страничку нельзя попасть никак с других страниц сайта, т.е. на нее никто не ссылается.
Хотелось бы знать как гугл реагирует на обнаружение такой вот свалки ссылок?
А если на эту сраницу ссылок нет, как ее Гугль найдет?
А если на эту сраницу ссылок нет, как ее Гугль найдет?
Да кто его знает, гугль всемогущ :)
Т.е. если ссылок на страницу нет то гугль не сможет ее найти? Я в этом вопросе не силен, думал что он тупо может папку сайта прочитать со всем содержимым. Это не есть так?
А вы дали гуглю пароль от админки, или от FTP ? ;)
Вряд ли ;) В крайнем случае закройте файлик в robots.txt и название ему дайте какое-нибудь отличное от links.html. Этого точно хватит. :)
А если на эту сраницу ссылок нет, как ее Гугль найдет?
Например, кто-то её добавит http://www.google.com/addurl/?continue=/addurl 🚬
Например, кто-то её добавит http://www.google.com/addurl/?continue=/addurl 🚬
Этот вариант может прокатить, НО.... есть у меня сайтик и в качестве эксперемента поставил на него форум ПХПББ (просто так)... и добавил его через эту форму, даже поставил пару ссылок (ПР2 страница ссылок). Сначала гугль нашёл её, прокешировал и... после очередного апдейта весь форум выпал из кеша.
З.Ы. согласен что это может быть частный случай, но не факт что гугль добавит в свою базу, скормленую ему страницу.
З.З.Ы. Лучше не париться и действительно закрыть эту страницу в robots.txt
Читал когда-то про то, как была страница без единой внешней ссылки на нее. Просто лежал html на серваке. И его гугл проиндексил и выдал. Оказалось, что всё дело было в том, что на эту страницу заходили из под оперы с включенным баннером (когда она еще с баннерами была). Понятно урл страницы передавался "оперовцам" при запросе баннера. Как оно в гуглю попало - это уже 2й вопрос....
Вот так то. Всяко бывает.
Этот вариант может прокатить, НО.... есть у меня сайтик и в качестве эксперемента поставил на него форум ПХПББ (просто так)... и добавил его через эту форму, даже поставил пару ссылок (ПР2 страница ссылок). Сначала гугль нашёл её, прокешировал и... после очередного апдейта весь форум выпал из кеша.
Вы утверждаете, что страница выпала из кэша потому, что была добавлена через addurl? :)
З.Ы. согласен что это может быть частный случай, но не факт что гугль добавит в свою базу, скормленую ему страницу.
Если ему там что-то не понравится, то не добавит, но что ему там может не понравиться - не знаю.
З.З.Ы. Лучше не париться и действительно закрыть эту страницу в robots.txt
Прочитайте сабж. Человеку нужно сделать у себя на сайте помойку, в которую он будет ставить все ответные ссылки (имхо, плохое решение). Во многих нормальных обменниках проверяется доступность страницы с бэком для индексации поисковиками, и если страница недоступна, то модератор обменника её добавляет (это не предположения, о подобных вещах писали на этом форуме).
ИМХО, лучше не делать на сайте помоек. Если вам позарез нужны ссылки с этих систем - поставьте нормальный каталог, чтобы всё было чистенько и аккуратненько (необязательно же давать на него ссылку для посетителей). В этом случае вероятность бана будет на порядок ниже.
Значит имеется шароварный сайт, для размещения информации о программе на софтверных архивах многие их них просят обратную ссылку на их сайт.
Не так уж и многие требуют обратку, а если и требуют, то в ответ все равно практической выгоды получатете мало. Я такие архивы пропускаю и иду дальше, у меня уже более 300+ софтверных архивов, которые не требуют обраток и наличия RegNow ID др. афилейтов, и уверюя вас этот список до конца не полный.
Вы утверждаете, что страница выпала из кэша потому, что была добавлена через addurl? :)
Нет, я это не утверждаю. Причин может быть много, я думаю выпала она потому что на неё не было ссылки с сайта (хотя имхо глупое предположение)
Если ему там что-то не понравится, то не добавит, но что ему там может не понравиться - не знаю.
Хотя бы то что это может быть линкопомойка или ещё что-нибудь что может ему не "понравиться"
Прочитайте сабж. Человеку нужно сделать у себя на сайте помойку, в которую он будет ставить все ответные ссылки (имхо, плохое решение).
Решение действительно ужасное, но если желает рисковать, то это его дело
Во многих нормальных обменниках проверяется доступность страницы с бэком для индексации поисковиками, и если страница недоступна, то модератор обменника её добавляет (это не предположения, о подобных вещах писали на этом форуме).
ИМХО, лучше не делать на сайте помоек. Если вам позарез нужны ссылки с этих систем - поставьте нормальный каталог, чтобы всё было чистенько и аккуратненько (необязательно же давать на него ссылку для посетителей). В этом случае вероятность бана будет на порядок ниже.
Согласен! ☝