Они высылали список IP адресов, программист их забанил, там были что-то свзяное с amazon, еще что-то, все забанили, не тронули только IP адреса от яндекса
но вот вопрос почему привязались именно к этому обычному интернет-магазину на sweb, на других хостингах всё нормально, в любом случае, при 20 посетителях в сутки, хостинг не должен падать, особенно если он стоит уже 700р в месяц---------- Добавлено 02.06.2018 в 17:43 ----------
кривых скриптов нет, там все стандартно, обычный движок CMS Неткат, дополнительных скриптов для него не писали
если это боты, то почему привязались к нам? по идее проблемой ботов наверно хостер должен заниматься, а не клиенты, что мы можем сделать то... все что могли забанили---------- Добавлено 02.06.2018 в 17:45 ----------
придется скорей всего, просто думал может есть тут люди которые на sweb сидят и у них все нормально
есть такая тема, даже новые сайты могут выходить в топ если закинуть их в спецразмещение
автоматизация, чтоб перелопатить +100500 страниц и проверить на ошибки, нужна именно прога
и сеошник и контекстолог и продвижение в социальных сетях и создание лэндигов...
вы наверно когда бухгалтера искали, тоже так писали, нам нужен бухгалтер котрый обязан делать работу шеф-повара, финансита, грузчика и отвечать на звонки клиентов :D
SERPSeeker хороший сервис по определению позиций
не стоит
10 символов
когда раньше работал сеошником, делал следующее, создавал страницу "доставка", в ней перечислял способы доставки товара и описывал транспортные компании с которыми работает сайт, чтобы доставить товар в любой город России
потом писал яшке типа вот смотрите мы можем доставить товар в любой город России и после этого нам присвоили регион Россия, но этот регион по сути ничего не дал т.е резкого скачка посещаемости не было
Тут как-то так:
Quod licet Jovi (Iovi) non licet bovi (что дозволено Юпитеру, не дозволено быку).
Посчет директивы host, то она в роботсе должна быть одна и действует на все поисковики.
RDS показывает что на корпоративном 33 тыс проиндексировано, а на основном 294 тыс страниц
гугл очень любит вечные ссылки, с тематических проектов, по крайней мере с помощью них, знакомым ребятам, вывел в топ гугл по россии "как создать сайт", а вот яшка даже не дернулся вверх :(
например у вашего конкурента 100 доноров у вас 20
а вообще всё нужно решать комплексно, проанализируйте топ10 гугла и посмотрите что у этих сайтов есть общего и внедрите в свой проект
лэндинги обычно делают для контекста
вывести в топ пс тоже можно, если в регионе мало конкуренции
но выводить одностраничник в топ сложнее чем многостраничник
а если не секрет, какой товар будете рекламировать через лэндинг?