- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый День!
Пока что только начинаю писать на php поэтому готов написать для Вас небольшие скрипты за отзыв.
Знаю PHP, MySQL, HTML.
ICQ - 434-44-99
E-Mail: rydx [собак} yandex [точка} ru
Skype: r-y-d-x
Напишите для меня и всех нуждающихся скрипт автоматического удаления страниц сайта из индекса Яндекса с помощью формы на http://webmaster.yandex.ru/delurl.xml
Чтобы можно было задать скрипту список URL и получить список ответов. Скрипт пригодится не только мне.
Парсингом занимаетесь, за отзыв?
Если да, кое что надо...
Могу попробовать...пишите, я контакты указал
Напишите для меня и всех нуждающихся скрипт автоматического удаления страниц сайта из индекса Яндекса с помощью формы на http://webmaster.yandex.ru/delurl.xml
Чтобы можно было задать скрипту список URL и получить список ответов. Скрипт пригодится не только мне.
Скрипт сделал, правда еще доработаю, куда его можно тут на форуме выложить не знаю, пока выложу тут
Скрипт очень простой и прошу ногами сильно не пинать, если что не так, все-таки еще новичок.
Для версии 0.1 неплохо. Предлагаю улучшить скрипт:
1) поскольку все удаляемые URL надо все равно предварительно запретить в robots.txt, предалагаю упростить задачу и не готовить файл disallow.txt. Лучше брать URL из robots.txt. Поэтому скрипт должен показывать только 1 строчку для ввода URL главной страницы сайта.
2) На больших файлах скрипт работает длительно и неизвестно как. Предлагаю сделать удаление порционно (по 10, 20, ... URL за раз).
Можно предоставить право выбора пользователю, сколько URL скрипт должен удалить за 1 заход (выбор: 5, 10, 15, 30, 50). После удаления этого количества скрипт может выводить информацию: "всего удалено ... URL, осталось удалить .... URL, потрачено времени ... с. Чтобы удалить следущие ... URL, нажмите здесь." Промежуточную информацию можно хранить в сессионных переменных.
1) поскольку все удаляемые URL надо все равно предварительно запретить в robots.txt, предалагаю упростить задачу и не готовить файл disallow.txt. Лучше брать URL из robots.txt. Поэтому скрипт должен показывать только 1 строчку для ввода URL главной страницы сайта.
Ну тут еще придется парсить выдачу яндекса для получения списка проиндексированных страниц. По robots.txt в общем случае нельзя определить какие именно страницы запрещены.
Ну задания кончились, жду еще
p.s. правда отзывов не вижу :(
p.s. правда отзывов не вижу :(
Работа была сделана быстро, скрипт для удаления URL работает. Жалко, что исполнитель не захотел его улучшить. Хороший скрипт останется в портфолио и можно сделать ссылку на него (скрипт) в подписи.
Ну тут еще придется парсить выдачу яндекса для получения списка проиндексированных страниц. По robots.txt в общем случае нельзя определить какие именно страницы запрещены.
Парсить выдачу необязательно, можно просто попытаться удалить то, что запрещено в robots.txt. Если страницу нельзя удалить, т.к. она не проиндексирована, Яндекс выдаст соответствующую строчку и ничего страшного не будет.
Парсить выдачу необязательно, можно просто попытаться удалить то, что запрещено в robots.txt
А как вы узнаете какие страницы есть на сайте? В роботсе ведь может быть просто написано "Disallow /articles/" без перечисления конкретных страниц.
А как вы узнаете какие страницы есть на сайте? В роботсе ведь может быть просто написано "Disallow /articles/" без перечисления конкретных страниц.
Согласен. Но скрипт предназначен именно для удаления отдельных страниц из выдачи Яндекса, а в этом случае их всех прописывают в robots.txt.