Как "отсканировать" сайт (или страницу) на предмет информации и включить его в мою программу?

Ну, я в значительной степени пытаюсь понять, как извлечь информацию с веб-страницы и перенести ее в мою программу (на Java).

Например, если я знаю точную страницу, с которой я хочу получить информацию, для простоты страницы с описанием Best Buy, как мне получить необходимую информацию с этой страницы? Понравилось название, цена, описание?

Как бы этот процесс вообще назывался? Я понятия не имею, должны были даже начать исследовать это.

Изменить: Хорошо, я запускаю тест для JSoup(тот, который опубликован BalusC), но я продолжаю получать эту ошибку:

Exception in thread "main" java.lang.NoSuchMethodError: java.util.LinkedList.peekFirst()Ljava/lang/Object;
at org.jsoup.parser.TokenQueue.consumeWord(TokenQueue.java:209)
at org.jsoup.parser.Parser.parseStartTag(Parser.java:117)
at org.jsoup.parser.Parser.parse(Parser.java:76)
at org.jsoup.parser.Parser.parse(Parser.java:51)
at org.jsoup.Jsoup.parse(Jsoup.java:28)
at org.jsoup.Jsoup.parse(Jsoup.java:56)
at test.main(test.java:12)

У меня есть Apache Commons

10 ответов

Решение

Используйте анализатор HTML, такой как Jsoup. Это мое предпочтение перед другими HTML-парсерами, доступными в Java, так как он поддерживает jQuery, как CSS-селекторы. Кроме того, его класс, представляющий список узлов, Elements, реализует Iterable так что вы можете перебирать его в расширенном цикле for (так что нет необходимости ломать голову над подробным Node а также NodeList как классы в обычном Java DOM-парсере).

Вот простой базовый пример (просто поместите последний JAR-файл Jsoup в classpath):

package com.stackru.q2835505;

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

public class Test {

    public static void main(String[] args) throws Exception {
        String url = "https://stackru.com/questions/2835505";
        Document document = Jsoup.connect(url).get();

        String question = document.select("#question .post-text").text();
        System.out.println("Question: " + question);

        Elements answerers = document.select("#answers .user-details a");
        for (Element answerer : answerers) {
            System.out.println("Answerer: " + answerer.text());
        }
    }

}

Как вы уже догадались, здесь печатается ваш собственный вопрос и имена всех отвечающих.

Это называется очисткой экрана, в Википедии есть статья о более конкретном веб-очистке. Это может быть серьезной проблемой, потому что есть какой-то уродливый, испорченный, сломанный, если не для браузера, хитрость HTML, так что удачи.

Я бы использовал JTidy - это то же самое, что JSoup, но я плохо знаю JSoup. JTidy обрабатывает неработающий HTML и возвращает документ w3c, так что вы можете использовать его в качестве источника для XSLT для извлечения интересующего вас контента. Если вы не знаете XSLT, то вы также можете использовать JSoup в качестве документа с моделью лучше работать, чем с w3c.

РЕДАКТИРОВАТЬ: быстрый просмотр на сайте JSoup показывает, что JSoup действительно может быть лучшим выбором. Кажется, он поддерживает CSS-селекторы из коробки для извлечения материала из документа. С этим гораздо проще работать, чем входить в XSLT.

Сам процесс обычно называется "соскабливанием". Вы можете использовать синтаксический анализатор, такой как TagSoup, для обработки страницы после ее загрузки.

Вы можете использовать html-парсер (много полезных ссылок здесь: java html parser).

Процесс называется "захват контента сайта". Поиск "захватить содержание сайта Java" для дальнейшего расследования.

jsoup поддерживает Java 1.5

https://github.com/tburch/jsoup/commit/d8ea84f46e009a7f144ee414a9fa73ea187019a3

похоже, что этот стек был ошибкой и был исправлен

Мой ответ, вероятно, не будет полезен для автора этого вопроса (я опаздываю на 8 месяцев, поэтому я не думаю, что это правильное время), но я думаю, что он, вероятно, будет полезен для многих других разработчиков, которые могут встретить этот ответ.

Сегодня я только что выпустил (от имени моей компании) полный фреймворк HTML to POJO, который вы можете использовать для отображения HTML на любой класс POJO с помощью нескольких аннотаций. Сама библиотека довольно удобна и в то же время содержит множество других функций, в то же время будучи очень подключаемой. Вы можете взглянуть на это прямо здесь: https://github.com/whimtrip/jwht-htmltopojo

Как использовать: основы

Представьте, что нам нужно проанализировать следующую HTML-страницу:

<html>
    <head>
        <title>A Simple HTML Document</title>
    </head>
    <body>
        <div class="restaurant">
            <h1>A la bonne Franquette</h1>
            <p>French cuisine restaurant for gourmet of fellow french people</p>
            <div class="location">
                <p>in <span>London</span></p>
            </div>
            <p>Restaurant n*18,190. Ranked 113 out of 1,550 restaurants</p>  
            <div class="meals">
                <div class="meal">
                    <p>Veal Cutlet</p>
                    <p rating-color="green">4.5/5 stars</p>
                    <p>Chef Mr. Frenchie</p>
                </div>

                <div class="meal">
                    <p>Ratatouille</p>
                    <p rating-color="orange">3.6/5 stars</p>
                    <p>Chef Mr. Frenchie and Mme. French-Cuisine</p>
                </div>

            </div> 
        </div>    
    </body>
</html>

Давайте создадим POJO, к которым мы хотим привязать его:

public class Restaurant {

    @Selector( value = "div.restaurant > h1")
    private String name;

    @Selector( value = "div.restaurant > p:nth-child(2)")
    private String description;

    @Selector( value = "div.restaurant > div:nth-child(3) > p > span")    
    private String location;    

    @Selector( 
        value = "div.restaurant > p:nth-child(4)"
        format = "^Restaurant n\*([0-9,]+). Ranked ([0-9,]+) out of ([0-9,]+) restaurants$",
        indexForRegexPattern = 1,
        useDeserializer = true,
        deserializer = ReplacerDeserializer.class,
        preConvert = true,
        postConvert = false
    )
    // so that the number becomes a valid number as they are shown in this format : 18,190
    @ReplaceWith(value = ",", with = "")
    private Long id;

    @Selector( 
        value = "div.restaurant > p:nth-child(4)"
        format = "^Restaurant n\*([0-9,]+). Ranked ([0-9,]+) out of ([0-9,]+) restaurants$",
        // This time, we want the second regex group and not the first one anymore
        indexForRegexPattern = 2,
        useDeserializer = true,
        deserializer = ReplacerDeserializer.class,
        preConvert = true,
        postConvert = false
    )
    // so that the number becomes a valid number as they are shown in this format : 18,190
    @ReplaceWith(value = ",", with = "")
    private Integer rank;

    @Selector(value = ".meal")    
    private List<Meal> meals;

    // getters and setters

}

А теперь Meal класс также:

public class Meal {

    @Selector(value = "p:nth-child(1)")
    private String name;

    @Selector(
        value = "p:nth-child(2)",
        format = "^([0-9.]+)\/5 stars$",
        indexForRegexPattern = 1
    )
    private Float stars;

    @Selector(
        value = "p:nth-child(2)",
        // rating-color custom attribute can be used as well
        attr = "rating-color"
    )
    private String ratingColor;

    @Selector(
        value = "p:nth-child(3)"
    )
    private String chefs;

    // getters and setters.
}

Мы предоставили еще несколько пояснений к приведенному выше коду на нашей странице github.

На данный момент, давайте посмотрим, как отказаться от этого.

private static final String MY_HTML_FILE = "my-html-file.html";

public static void main(String[] args) {


    HtmlToPojoEngine htmlToPojoEngine = HtmlToPojoEngine.create();

    HtmlAdapter<Restaurant> adapter = htmlToPojoEngine.adapter(Restaurant.class);

    // If they were several restaurants in the same page, 
    // you would need to create a parent POJO containing
    // a list of Restaurants as shown with the meals here
    Restaurant restaurant = adapter.fromHtml(getHtmlBody());

    // That's it, do some magic now!

}


private static String getHtmlBody() throws IOException {
    byte[] encoded = Files.readAllBytes(Paths.get(MY_HTML_FILE));
    return new String(encoded, Charset.forName("UTF-8"));

}

Еще один короткий пример можно найти здесь

Надеюсь, что это поможет кому-то там!

Возможно, вы захотите взглянуть на HTML, чтобы увидеть, можете ли вы найти уникальные строки рядом с вашим текстом, тогда вы можете использовать line / char-offsets для получения данных.

Может быть неудобно в Java, если нет никаких классов XML, подобных тем, которые можно найти в System.XML.Linq в C#.

Вы также можете попробовать JARVEST.

Он основан на JRuby DSL, а не на чистом Java-движке для веб-сайтов.

Пример:

Найти все ссылки внутри веб-страницы (wget а также xpath являются конструкциями языка JARVEST):

wget | xpath('//a/@href')

Внутри Java-программы:

Jarvest jarvest = new Jarvest();
  String[] results = jarvest.exec(
    "wget | xpath('//a/@href')", //robot! 
    "http://www.google.com" //inputs
  );
  for (String s : results){
    System.out.println(s);
  }

Решение JSoup отлично, но если вам нужно извлечь что-то действительно простое, может быть проще использовать regex или String.indexOf

Как уже упоминали другие, этот процесс называется выскабливанием.

Посмотрите в библиотеку cURL. Я никогда не использовал это в Java, но я уверен, что для этого должны быть привязки. По сути, вы будете отправлять запрос cURL на любую страницу, которую хотите "почистить". Запрос вернет на страницу строку с исходным кодом. Оттуда вы будете использовать регулярное выражение для анализа любых данных из исходного кода. Это обычно, как вы собираетесь это сделать.

Другие вопросы по тегам