Управление объемом Seaweedfs

У меня есть 2 вопроса по поводу запущенного кластера Seaweedfs. Лидер запускается следующей командой:

/usr/local/bin/weed server -ip=192.168.13.154 -ip.bind=192.168.13.154 -dir=/opt/seaweedfs/volume-1,/opt/seaweedfs/volume-2,/opt/seaweedfs/volume-3 -master.dir=/opt/seaweedfs/master -master.peers=192.168.13.154:9333,192.168.13.155:9333,192.168.13.156:9333 -volume.max=30,30,30 -filer=true -s3=true -metrics.address=192.168.13.84:9091

Вопрос 1

Я создал файл master.toml, используя weed scaffold -config=master:

[master.maintenance]
# periodically run these scripts are the same as running them from 'weed shell'
scripts = """
  ec.encode -fullPercent=95 -quietFor=1h
  ec.rebuild -force
  ec.balance -force
  volume.balance -force
"""
sleep_minutes = 17          # sleep minutes between each script execution

Однако сценарии обслуживания, похоже, не работают, потому что

shell failed to keep connected to localhost:9333: rpc error: code = Unavailable desc = all SubConns are in TransientFailure, latest connection error: connection error: desc = "transport: Error while dialing dial tcp [::1]:19333: connect: connection refused"

Это имеет смысл, поскольку мастер привязан к ip 192.168.13.154и сценарий обслуживания пытается подключиться к localhost. Как я могу указать главный IP-адрес вmaster.toml файл?

вопрос 2

Кажется, что количество томов растет быстрее, чем объем используемого дискового пространства. Например на сервере.154 всего 11 свободных томов. Но если посмотреть на дисковое пространство, его должно быть намного больше.

Статус:

{
  "Topology": {
    "DataCenters": [
      {
        "Free": 16,
        "Id": "DefaultDataCenter",
        "Max": 270,
        "Racks": [
          {
            "DataNodes": [
              {
                "EcShards": 0,
                "Free": 0,
                "Max": 90,
                "PublicUrl": "192.168.13.155:8080",
                "Url": "192.168.13.155:8080",
                "Volumes": 90
              },
              {
                "EcShards": 0,
                "Free": 11,
                "Max": 90,
                "PublicUrl": "192.168.13.154:8080",
                "Url": "192.168.13.154:8080",
                "Volumes": 79
              },
              {
                "EcShards": 0,
                "Free": 5,
                "Max": 90,
                "PublicUrl": "192.168.13.156:8080",
                "Url": "192.168.13.156:8080",
                "Volumes": 85
              }
            ],
            "Free": 16,
            "Id": "DefaultRack",
            "Max": 270
          }
        ]
      }
    ],
    "Free": 16,
    "Max": 270,
    "layouts": [
      ...
    ]
  },
  "Version": "30GB 1.44"
}

Диск (192.168.13.154):

/dev/sdb1      1007G  560G  397G  59% /opt/seaweedfs/volume-1
/dev/sdc1      1007G  542G  414G  57% /opt/seaweedfs/volume-2
/dev/sdd1      1007G  398G  559G  42% /opt/seaweedfs/volume-3

Связано ли это с тем, что сценарии обслуживания не работают должным образом, или есть что-то еще, что я неправильно понимаю?

1 ответ

Решение

Вопрос 1. Добавлено исправление https://github.com/chrislusf/seaweedfs/commit/56244fb9a13c75616aa8a9232c62d1b896906e98

Вопрос 2: Вероятно, связано со сменой главного руководства.

Другие вопросы по тегам