Как "отсканировать" сайт (или страницу) на предмет информации и включить его в мою программу?
Ну, я в значительной степени пытаюсь понять, как извлечь информацию с веб-страницы и перенести ее в мою программу (на Java).
Например, если я знаю точную страницу, с которой я хочу получить информацию, для простоты страницы с описанием Best Buy, как мне получить необходимую информацию с этой страницы? Понравилось название, цена, описание?
Как бы этот процесс вообще назывался? Я понятия не имею, должны были даже начать исследовать это.
Изменить: Хорошо, я запускаю тест для JSoup(тот, который опубликован BalusC), но я продолжаю получать эту ошибку:
Exception in thread "main" java.lang.NoSuchMethodError: java.util.LinkedList.peekFirst()Ljava/lang/Object;
at org.jsoup.parser.TokenQueue.consumeWord(TokenQueue.java:209)
at org.jsoup.parser.Parser.parseStartTag(Parser.java:117)
at org.jsoup.parser.Parser.parse(Parser.java:76)
at org.jsoup.parser.Parser.parse(Parser.java:51)
at org.jsoup.Jsoup.parse(Jsoup.java:28)
at org.jsoup.Jsoup.parse(Jsoup.java:56)
at test.main(test.java:12)
У меня есть Apache Commons
10 ответов
Используйте анализатор HTML, такой как Jsoup. Это мое предпочтение перед другими HTML-парсерами, доступными в Java, так как он поддерживает jQuery, как CSS-селекторы. Кроме того, его класс, представляющий список узлов, Elements
, реализует Iterable
так что вы можете перебирать его в расширенном цикле for (так что нет необходимости ломать голову над подробным Node
а также NodeList
как классы в обычном Java DOM-парсере).
Вот простой базовый пример (просто поместите последний JAR-файл Jsoup в classpath):
package com.stackru.q2835505;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
public class Test {
public static void main(String[] args) throws Exception {
String url = "https://stackru.com/questions/2835505";
Document document = Jsoup.connect(url).get();
String question = document.select("#question .post-text").text();
System.out.println("Question: " + question);
Elements answerers = document.select("#answers .user-details a");
for (Element answerer : answerers) {
System.out.println("Answerer: " + answerer.text());
}
}
}
Как вы уже догадались, здесь печатается ваш собственный вопрос и имена всех отвечающих.
Это называется очисткой экрана, в Википедии есть статья о более конкретном веб-очистке. Это может быть серьезной проблемой, потому что есть какой-то уродливый, испорченный, сломанный, если не для браузера, хитрость HTML, так что удачи.
Я бы использовал JTidy - это то же самое, что JSoup, но я плохо знаю JSoup. JTidy обрабатывает неработающий HTML и возвращает документ w3c, так что вы можете использовать его в качестве источника для XSLT для извлечения интересующего вас контента. Если вы не знаете XSLT, то вы также можете использовать JSoup в качестве документа с моделью лучше работать, чем с w3c.
РЕДАКТИРОВАТЬ: быстрый просмотр на сайте JSoup показывает, что JSoup действительно может быть лучшим выбором. Кажется, он поддерживает CSS-селекторы из коробки для извлечения материала из документа. С этим гораздо проще работать, чем входить в XSLT.
Сам процесс обычно называется "соскабливанием". Вы можете использовать синтаксический анализатор, такой как TagSoup, для обработки страницы после ее загрузки.
Вы можете использовать html-парсер (много полезных ссылок здесь: java html parser).
Процесс называется "захват контента сайта". Поиск "захватить содержание сайта Java" для дальнейшего расследования.
jsoup поддерживает Java 1.5
https://github.com/tburch/jsoup/commit/d8ea84f46e009a7f144ee414a9fa73ea187019a3
похоже, что этот стек был ошибкой и был исправлен
Мой ответ, вероятно, не будет полезен для автора этого вопроса (я опаздываю на 8 месяцев, поэтому я не думаю, что это правильное время), но я думаю, что он, вероятно, будет полезен для многих других разработчиков, которые могут встретить этот ответ.
Сегодня я только что выпустил (от имени моей компании) полный фреймворк HTML to POJO, который вы можете использовать для отображения HTML на любой класс POJO с помощью нескольких аннотаций. Сама библиотека довольно удобна и в то же время содержит множество других функций, в то же время будучи очень подключаемой. Вы можете взглянуть на это прямо здесь: https://github.com/whimtrip/jwht-htmltopojo
Как использовать: основы
Представьте, что нам нужно проанализировать следующую HTML-страницу:
<html>
<head>
<title>A Simple HTML Document</title>
</head>
<body>
<div class="restaurant">
<h1>A la bonne Franquette</h1>
<p>French cuisine restaurant for gourmet of fellow french people</p>
<div class="location">
<p>in <span>London</span></p>
</div>
<p>Restaurant n*18,190. Ranked 113 out of 1,550 restaurants</p>
<div class="meals">
<div class="meal">
<p>Veal Cutlet</p>
<p rating-color="green">4.5/5 stars</p>
<p>Chef Mr. Frenchie</p>
</div>
<div class="meal">
<p>Ratatouille</p>
<p rating-color="orange">3.6/5 stars</p>
<p>Chef Mr. Frenchie and Mme. French-Cuisine</p>
</div>
</div>
</div>
</body>
</html>
Давайте создадим POJO, к которым мы хотим привязать его:
public class Restaurant {
@Selector( value = "div.restaurant > h1")
private String name;
@Selector( value = "div.restaurant > p:nth-child(2)")
private String description;
@Selector( value = "div.restaurant > div:nth-child(3) > p > span")
private String location;
@Selector(
value = "div.restaurant > p:nth-child(4)"
format = "^Restaurant n\*([0-9,]+). Ranked ([0-9,]+) out of ([0-9,]+) restaurants$",
indexForRegexPattern = 1,
useDeserializer = true,
deserializer = ReplacerDeserializer.class,
preConvert = true,
postConvert = false
)
// so that the number becomes a valid number as they are shown in this format : 18,190
@ReplaceWith(value = ",", with = "")
private Long id;
@Selector(
value = "div.restaurant > p:nth-child(4)"
format = "^Restaurant n\*([0-9,]+). Ranked ([0-9,]+) out of ([0-9,]+) restaurants$",
// This time, we want the second regex group and not the first one anymore
indexForRegexPattern = 2,
useDeserializer = true,
deserializer = ReplacerDeserializer.class,
preConvert = true,
postConvert = false
)
// so that the number becomes a valid number as they are shown in this format : 18,190
@ReplaceWith(value = ",", with = "")
private Integer rank;
@Selector(value = ".meal")
private List<Meal> meals;
// getters and setters
}
А теперь Meal
класс также:
public class Meal {
@Selector(value = "p:nth-child(1)")
private String name;
@Selector(
value = "p:nth-child(2)",
format = "^([0-9.]+)\/5 stars$",
indexForRegexPattern = 1
)
private Float stars;
@Selector(
value = "p:nth-child(2)",
// rating-color custom attribute can be used as well
attr = "rating-color"
)
private String ratingColor;
@Selector(
value = "p:nth-child(3)"
)
private String chefs;
// getters and setters.
}
Мы предоставили еще несколько пояснений к приведенному выше коду на нашей странице github.
На данный момент, давайте посмотрим, как отказаться от этого.
private static final String MY_HTML_FILE = "my-html-file.html";
public static void main(String[] args) {
HtmlToPojoEngine htmlToPojoEngine = HtmlToPojoEngine.create();
HtmlAdapter<Restaurant> adapter = htmlToPojoEngine.adapter(Restaurant.class);
// If they were several restaurants in the same page,
// you would need to create a parent POJO containing
// a list of Restaurants as shown with the meals here
Restaurant restaurant = adapter.fromHtml(getHtmlBody());
// That's it, do some magic now!
}
private static String getHtmlBody() throws IOException {
byte[] encoded = Files.readAllBytes(Paths.get(MY_HTML_FILE));
return new String(encoded, Charset.forName("UTF-8"));
}
Еще один короткий пример можно найти здесь
Надеюсь, что это поможет кому-то там!
Возможно, вы захотите взглянуть на HTML, чтобы увидеть, можете ли вы найти уникальные строки рядом с вашим текстом, тогда вы можете использовать line / char-offsets для получения данных.
Может быть неудобно в Java, если нет никаких классов XML, подобных тем, которые можно найти в System.XML.Linq
в C#.
Вы также можете попробовать JARVEST.
Он основан на JRuby DSL, а не на чистом Java-движке для веб-сайтов.
Пример:
Найти все ссылки внутри веб-страницы (wget
а также xpath
являются конструкциями языка JARVEST):
wget | xpath('//a/@href')
Внутри Java-программы:
Jarvest jarvest = new Jarvest();
String[] results = jarvest.exec(
"wget | xpath('//a/@href')", //robot!
"http://www.google.com" //inputs
);
for (String s : results){
System.out.println(s);
}
Решение JSoup отлично, но если вам нужно извлечь что-то действительно простое, может быть проще использовать regex или String.indexOf
Как уже упоминали другие, этот процесс называется выскабливанием.
Посмотрите в библиотеку cURL. Я никогда не использовал это в Java, но я уверен, что для этого должны быть привязки. По сути, вы будете отправлять запрос cURL на любую страницу, которую хотите "почистить". Запрос вернет на страницу строку с исходным кодом. Оттуда вы будете использовать регулярное выражение для анализа любых данных из исходного кода. Это обычно, как вы собираетесь это сделать.