только сейчас понял зачем нужен такой странный функционал на сайте отзывов, как перевод денег конкретному лицу
видимо для того, что бы как раз он и снял этот отрицательный отзыв. первый раз на такое извращение натыкаюсь
интересно, находятся такие, кто платит?
13000 посетителей в сутки
тот, кто наберёт в яндексе "*мой сайт* отзывы" вполне теперь может увидеть этот сайт
не люблю эту мороку, пока что хочу попробовать варианты попроще
вы невнимательно читали - я это уже все попробовал
ну да, не поспоришь )
всем большое спасибо за советы. скорее всего таки забью на это дело. если через пару месяцев по запросу "мой сайт отзывы" эти мудаки будут на первой странице выдачи - тогда буду думать уже дальше.
да, тоже пришлось гуглить где собственно скачать новую версию. авторы специально квест такой придумали для пользователей?
еще очень достает, что программа автоматически удаляет дубликаты запросов. часто это создает серьезные проблемы, потому что сначала в программу загоняешь данные из таблицы экселя ,а потом когда обратно пытаешь, то обнаруживаешь, что не совпадают строки, потому что несколько дубликатов было.
но в остальном программа очень нравится.
спасибо создателям
день добрый. нам нужен примерно такой же программист как и вам. как ваши успехи, нашли кого нибудь. Можете поделиться опытом поиска?
https://www.youtube.com/watch?v=Lz4ZbG_DZS8
это ответы самих гугловцев на многие вопросы по переходу на https
меня во всей этой истории удивляет такой факт. Они говорят, что когда сайт начинает работать по защищенному протоколу, то для поисковой системы гугл это получается как бы новый сайт. он начинает индексироваться как бы с нуля и т.д.. Естественно при этом может что-то перестать работать так, как раньше.
вот непонятно, а зачем всё переиндексировать? если сайт особо не поменялся - теже страницы, теже ссылки, просто протокол поменялся.
и вопрос в тем, кто уже пробовал.
я в яндексе как дела обстоят? там при переходе на https тоже получится полная переиндексация? тоже могут быть подводные камни и непредсказуемый результат?
решил задачу с помощью программы WebSite-Watcher
только со второго раза её асилил )
это парсер страниц, который смотрит изменения и если они есть - то маячит пользователю
в конце концов смог настроить так, что бы она игнорила изменения типа "оставлен 4 минуты назад", "Мне нравится 5" и т.п.
создал 5 фильтров игнорируемых элементов
и сейчас она каждую минуту просматривает страницу и если нашлись ПОЛЕЗНЫЕ СУЩЕСТВЕННЫЕ изменения - и звуком и окошком орёт пока не отреагируешь
короче почти то, что нужно
я не программировал уже 20 лет ) вы можете подсказать кто сможет выполнить такую задачу?
здравствуйте
нужно получать уведомления, когда кто-то напишет сообщение в группе в вконтактах.
есть интернет-магазин и группа для него. там иногда задают вопросы о цене или наличии товара, просят подобрать товар под свои потребности. отвечать нужно оперативно, но садить человека, который будет сидеть и смотреть на страницу группы каждые 2 минуты, не задал ли кто вопрос - не вариант.
нужно какое то уведомление, что появилось новое сообщение
стандартными средствами это не решается. может есть какой то сторонний софт? в конце концов может парсер написать, который будет периодически просматривать страницу, и если там что-то изменилось - маячить владельцу группы? еще лучше что бы парсер выделял=подсвечивал на странице группы изменения, потому что могут задать новый вопрос, он сверху будет, а могут ответить на сообщение внизу. сразу и не не заметишь.
у меня 6 сайтов клиентских, все двигал в сеопульте и в ГГЛ
из них один падал потихоньку вниз, 3 висело стабильно и пару сайтов потихоньку лезли вверх.
за последний год плавно уменьшал ссылочную массу в сеопульте, к весне осталось примерно половина бюджета и в марте уже полностью снял все ссылки сеопульта на всех шести проектах, достаточно резко.
НИЧЕГО НЕ ПОМЕНЯЛОСЬ.
Т.е. сайт который падал - так и падает мелкими порциями, те, что нормально себя чувствовали - так и чувствуют.
Но это я все про яндекс.
А в гугле половина моих сайтов попала под пингвин
долго мучился, но вывел уже два сайта из под пингвина.
технология такая.
Сначала специально написанным парсером спарсил все ссылки накупленные сеопультом весной и пытался подсунуть в сервис отклонения ссылок, но не срабатывало.
как объяснили ребята из гугля на их форуме, просто занести ссылки в список отклонения не прокатит - нужно снять реально хоть половину из них
потому таки снял их все резко весной, но в гугле они так и числились более месяца, хотя по факту их уже не было
поэтому ждать пока они сами уйдут из вебмастера гугля не стал и таки опять запихал список этих ссылок в ОТКЛОНЕНИЕ ССЫЛОК и тогда меня простил гугль
впрочем кроме сеопультовых пришлось отклонить еще и много ГГЛ ссылок, тех, где были коммерческие анкоры. оставил только безанкорные
в результате 2 сайта вывел из под пингвина. на очереди третий
НО ни на одном это не дало прироста позиций и трафика в гугле.
оно и понятно. по сути получается что сайт без ссылочной массы
потихоньку начинаю наращивать ссылки, но уже только безанкорные
посмотрим...
Всем спасибо за ответы
Меня тут уже несколько человек в личке спрашивают. Как я парсил ссылки сеопульта и как их заносил в дисаллоу. Рассказываю.
Были заплачены деньги и был написан парсер. Он универсальный, т.е. ему дается гостевой вход в аккаунт гугля и парсер на выходе выдает все сылки с УРЛами доноров, УРЛами на продвигаемые страницы,анкорами и прочее
В результате работы парсера получается экселевский файл. Из него просто беру список урлов доноров и формирую ТХТ файл и заношу в диссаллоу. можно несложными манипуляциями выковырять только домены и занести именно список доменов
Проблема в том, что пока гугль доберется до перепроверки моего списка, сеопульт успевает снять часть ссылок и накупить новых. поэтому пару раз я уже експериментировал. и гугль мне в говорил, что вот мол мы перепроверили и все равно у тебя есть плохие ссылки, и давал мне в качестве примера 2-3 НЕДАВНОКУПЛЕННЫХ ссылок из сеопульта. С этим я знаю только один способ бороться:
А именно, довести бюджет в сеопульте до состояния "денег осталось на три дня, новые ссылки не покупаются". Я как раз ждал, пока закончится бабло на акаунте, что бы проверить эту версию, но пока ждал экспериментировал, и доэкспериментировался до того, что гугль мне в качестве причины отклонения выдал примеры трех плохих ссылок, и все уже НЕ сеопультовые, а гогетлинковские. Т.е. с тематичных сайтов, тематичных страниц, с нормальным соотношение входящих-исходящих ссылок на сайт и прочее. ,т.е. относительно приличные ссылки. Собственно почему и была создана эта тема.
На вопросы типа "поделись парсером" отвечаю: я платил за него программисту и просто так делиться не хочу. Если в личку будет много просьб, то я отдам парсер знакомому человеку, он будет за небольшую денежку оказывать услугу "спарсить все ссылки сеопульта". Самому мне этим заниматься некогда просто. Да и проблематично из Таиланда - тут трафик на россию идет как то криво, через пиндосов (шоб йм в горли пирья поросло), пинги большие...
ПС. По поводу парсера я, кстати, в теме сеопультовой общался, долго пытался от них добиться экспорта всех ссылок. и мне там сказали, что вообще - загонять в дисаллоу сеопультовые ссылки пачками - это большой грех и меня всевышний может покарать. Так что вот так... Сами думайте, надо оно вам или нет. Впрочем я уверен, что поисковики сайты, торгующие в сапе и сеопультах и прочее и так прекрасно все знают.