Ruby, Mongodb, Anemone: веб-сканер с возможной утечкой памяти?
Недавно я начал изучать веб-сканеры и создал хранилище образцов для Ruby, Anemone и Mongodb. Я тестирую сканер на огромном общедоступном веб-сайте с миллиардами ссылок.
Файл crawler.rb индексирует правильную информацию, хотя, когда я проверяю использование памяти в мониторе активности, он показывает, что память постоянно растет. Я запускаю сканер только около 6-7 часов, а память показывает 1,38 ГБ для mongod и 1.37 ГБ для процесса Ruby. Кажется, он растет около 100 МБ каждый час или около того.
Кажется, у меня может быть утечка памяти? Является ли это более оптимальным способом, чтобы я мог достичь того же сканирования, не увеличивая объем памяти, чтобы она могла работать дольше?
# Sample web_crawler.rb with Anemone, Mongodb and Ruby.
require 'anemone'
# do not store the page's body.
module Anemone
class Page
def to_hash
{'url' => @url.to_s,
'links' => links.map(&:to_s),
'code' => @code,
'visited' => @visited,
'depth' => @depth,
'referer' => @referer.to_s,
'fetched' => @fetched}
end
def self.from_hash(hash)
page = self.new(URI(hash['url']))
{'@links' => hash['links'].map { |link| URI(link) },
'@code' => hash['code'].to_i,
'@visited' => hash['visited'],
'@depth' => hash['depth'].to_i,
'@referer' => hash['referer'],
'@fetched' => hash['fetched']
}.each do |var, value|
page.instance_variable_set(var, value)
end
page
end
end
end
Anemone.crawl("http://www.example.com/", :discard_page_bodies => true, :threads => 1, :obey_robots_txt => true, :user_agent => "Example - Web Crawler", :large_scale_crawl => true) do | anemone |
anemone.storage = Anemone::Storage.MongoDB
#only crawl pages that contain /example in url
anemone.focus_crawl do |page|
links = page.links.delete_if do |link|
(link.to_s =~ /example/).nil?
end
end
# only process pages in the /example directory
anemone.on_pages_like(/example/) do | page |
regex = /some type of regex/
example = page.doc.css('#example_div').inner_html.gsub(regex,'') rescue next
# Save to text file
if !example.nil? and example != ""
open('example.txt', 'a') { |f| f.puts "#{example}"}
end
page.discard_doc!
end
end
2 ответа
У меня также есть проблема с этим, но я использую Redis в качестве хранилища данных.
это мой сканер:
require "rubygems"
require "anemone"
urls = File.open("urls.csv")
opts = {discard_page_bodies: true, skip_query_strings: true, depth_limit:2000, read_timeout: 10}
File.open("results.csv", "a") do |result_file|
while row = urls.gets
row_ = row.strip.split(',')
if row_[1].start_with?("http://")
url = row_[1]
else
url = "http://#{row_[1]}"
end
Anemone.crawl(url, options = opts) do |anemone|
anemone.storage = Anemone::Storage.Redis
puts "crawling #{url}"
anemone.on_every_page do |page|
next if page.body == nil
if page.body.downcase.include?("sometext")
puts "found one at #{url}"
result_file.puts "#{row_[0]},#{row_[1]}"
next
end # end if
end # end on_every_page
end # end crawl
end # end while
# we're done
puts "We're done."
end # end File.open
Отсюда я применил патч к файлу core.rb в геме анемона:
35 # Prevent page_queue from using excessive RAM. Can indirectly limit ra te of crawling. You'll additionally want to use discard_page_bodies and/or a non-memory 'storage' option
36 :max_page_queue_size => 100,
...
(Следующее раньше было в строке 155)
157 page_queue = SizedQueue.new(@opts[:max_page_queue_size])
и у меня есть почасовая работа cron:
#!/usr/bin/env python
import redis
r = redis.Redis()
r.flushall()
попытаться уменьшить использование памяти redis. Я перезапускаю гигантское сканирование сейчас, так что посмотрим, как оно пойдет!
Я сообщу с результатами...
Я делаю нечто подобное и думаю, что, возможно, вы просто создаете множество данных.
Вы не сохраняете тело так, что должно помочь требованиям памяти.
Единственное другое улучшение, которое я могу придумать, - это использовать Redis вместо Mongo, так как я обнаружил, что он гораздо более масштабируем для хранилища Anemone.
Проверьте размер данных, которые у вас есть в Монго - я обнаружил, что сохранял огромное количество строк.