Graffy

Graffy
Рейтинг
48
Регистрация
05.05.2012

Bra1ner1ck, дропы регнутые в конце декабря у меня начали давать траф в начале февраля, новорегам потребовалось времени чуть поменьше.

p.s я юзал постепенное наполнение ключами.

<?php
$config = ['username' => 'логин',
'password' => 'пасс',
'client_id' => '2274003', // не менять
'client_secret' =>'hHbZxrka2uZ6jB1inYsH' // не менять
];




$init = curl_init();
curl_setopt($init, CURLOPT_URL, 'https://oauth.vk.com/token?grant_type=password&scope=audio,offline&client_id='.$config['client_id'].'&client_secret='.$config['client_secret'].'&username='.$config['username'].'&password='.$config['password']);
curl_setopt($init, CURLOPT_TIMEOUT, 30);
curl_setopt($init, CURLOPT_RETURNTRANSFER, 1);
curl_setopt($init, CURLOPT_USERAGENT, 'Mozilla/5.0 (Windows NT 5.1; rv:5.0.1) Gecko/20100101 Firefox/5.0.1');
curl_setopt($init, CURLOPT_SSL_VERIFYPEER, FALSE);
curl_setopt($init, CURLOPT_SSL_VERIFYHOST, FALSE);
$src = curl_exec($init);
curl_close($init);

echo $src;
?>

Если вдруг кому-либо понадобятся vk_token

iroomer, какую страницу вы решили проверить на тег og:video:url ?

OmgRes, этот функционал не работает, как и множество других описанных в документации параметров.

irisat:

Так бодет больше на дор похоже и меньше нагрузка при поиске и релевантах - запишутся только те на которые был переход - зачем нагружать "сайт" и записывать в базу видяху когда ее даже смотреть не хотели?

Нужно писать только то, к чему было обращение. имхо конечно)

Смысла в этом почти нет, так как бот ходит почти по всем страницам, и они так же будут записываться.

saimonyz, если gen_sitemap отрабатывает нормально, то и с cleaner все будет ок, я обычно крон ставлю через wget:

wget --delete-after http://domain.ru/cleaner.php
wget --delete-after http://domain.ru/gen_sitemap.php

saimonyz, база данных должна быть тоже в кодировке UTF-8

kxk, я уже отвечал по этому поводу, изначально он делался на sqlite, но были проблемы с использованием оперативки, поэтому был переписан на mysql

Все что не нужно, закрывается без помощи robots.txt, meta тегами и 404 ошибками.

Как пример это макрос %NOINDEX% для страницы поиска, если на ней не найдено ничего то на его месте подставится

<meta name='robots' content='noindex,nofollow' />

irisat, интересная идея, пока что для вывода популярных не только с ютуба но и с сайта, есть тег %BEST%

Всего: 83