Могу ли я захватить веб-страницу и сохранить ее в виде файла изображения на каких-либо языках? (без установки, без activeX)
Я слышал, что можно захватывать веб-страницы с помощью PHP(возможно, выше 6.0) на сервере Windows.
Я получил пример кода и проверил. но нет кода для правильного выполнения.
Если вы знаете, какие правильные способы захвата веб-страницы, сохранить файл изображения в веб-приложениях?
Пожалуйста, научите меня.
3 ответа
Вы могли бы использовать API Browsershots http://browsershots.org/
с интерфейсом xml-rpc вы действительно можете использовать практически любой язык для доступа к нему.
Хотя вы просили о решении PHP, я хотел бы поделиться еще одним решением с Perl. WWW:: Mechanize вместе с LWP:: UserAgent и HTML:: Parser могут помочь в очистке экрана.
Некоторые документы для справки:
Загрузка html веб-страницы широко известна как очистка экрана. Это может быть полезно, если вы хотите, чтобы программа извлекала данные с заданной страницы. Самый простой способ запросить ресурсы HTTP - использовать вызов инструмента cURL. CURL поставляется в качестве отдельного инструмента Unix, но есть библиотеки, чтобы использовать его практически на каждом языке программирования. Чтобы захватить эту страницу из командной строки Unix, введите:
curl http://stackru.com/questions/1077970/in-any-languages-can-i-capture-a-webpageno-install-no-activex-if-i-can-plz
В PHP вы можете сделать то же самое:
<?php
$ch = curl_init() or die(curl_error());
curl_setopt($ch, CURLOPT_URL,"http://stackru.com/questions/1077970/in-any-languages-can-i-capture-a-webpageno-install-no-activex-if-i-can-plz");
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
$data1=curl_exec($ch) or die(curl_error());
echo "<font color=black face=verdana size=3>".$data1."</font>";
echo curl_error($ch);
curl_close($ch);
?>
Теперь, прежде чем копировать весь веб-сайт, вы должны проверить их файл robots.txt, чтобы узнать, позволяют ли они роботам пауковать свой сайт, и вы можете проверить, есть ли доступный API, который позволяет вам получать данные без HTML.