Отелло Альфа-Бета Обрезка играет плохо питона

В настоящее время я пытаюсь сделать хороший ИИ для Отелло, и сделал это с помощью алгоритма Minimax. Однако, когда я попытался сделать более глубокий поиск с использованием альфа-бета-обрезки, казалось, что алгоритм работает ужасно. Я проверил это с другими источниками, такими как Wiki и Berkely.edu, и я думаю, что реализовал это правильно, но я все еще не могу найти проблему.

def alphabeta(board, player, a, b, lev):
        h = heur(board, player)
        if lev == 0:
                return h, None
        poss = get_legal_moves(board, player)
        if len(poss) == 0:
                return h, None
        move = 0
        for x in poss:
                cpboard = board[:]
                cpboard[x] = player
                bracket(cpboard, player, x)
                a1, q = alphabeta(cpboard, opponent_color(player), a, b, lev-1)
                if player is me:
                        if a1 > a:
                                a, move = a1, x
                else:
                        if a1 < b:
                                b, move = a1, x
                if b <= a:
                        break
        if player is me:
                return a, move
        else:
                return b, move

2 ответа

Решение

Ваш альфа-бета-код, вероятно, неверен. Знайте, что происходит, когда игрок "проходит ход" (то есть не имеет доступных ходов), из-за этого у меня была хитрая ошибка в моем коде.

Вы вызывали рекурсию с переключенными значениями альфа и бета? Моя работает так (код Java):

private float minimax(OthelloBoard board, OthelloMove best, float alpha, float beta, int depth)
{
    float bestResult = -Float.MAX_VALUE;
    OthelloMove garbage = new OthelloMove();

    int state = board.getState();
    int currentPlayer = board.getCurrentPlayer();

    if (state == OthelloBoard.STATE_DRAW)
        return 0.0f;
    if ((state == OthelloBoard.STATE_BLACK_WINS) && (currentPlayer == OthelloBoard.BLACK))                    
        return INFINITY;        
    if ((state == OthelloBoard.STATE_WHITE_WINS) && (currentPlayer == OthelloBoard.WHITE))
        return INFINITY;
    if ((state == OthelloBoard.STATE_BLACK_WINS) && (currentPlayer == OthelloBoard.WHITE))
        return -INFINITY;
    if ((state == OthelloBoard.STATE_WHITE_WINS) && (currentPlayer == OthelloBoard.BLACK))
        return -INFINITY;

    if (depth == maxDepth)
        return OthelloHeuristics.eval(currentPlayer, board);

    ArrayList<OthelloMove> moves = board.getAllMoves(currentPlayer);

    for (OthelloMove mv : moves)
    {            
        board.makeMove(mv);
        alpha = - minimax(board, garbage, -beta, -alpha, depth + 1);
        board.undoMove(mv);

        if (beta <= alpha)
            return alpha;
        if (alpha > bestResult)
        {                
            best.setFlipSquares(mv.getFlipSquares());
            best.setIdx(mv.getIdx());        
            best.setPlayer(mv.getPlayer());
            bestResult = alpha;
        }
    }

     return bestResult;
}

Звонок как:

 OthelloMove bestFound = new OthelloMove();
 int maxDepth = 8;
 minimax(board, bestFound, -Float.MAX_VALUE, Float.MAX_VALUE, maxDepth);
//Wait for Thread to finish
 board.makeMove(bestFound);

Редактировать: Если у игрока нет доступных ходов, getAllMoves() возвращает "фиктивный ход", который вообще не меняет доску, просто пропустите ход.

Надеюсь, поможет!

Ваша реализация в алфавитном порядке выглядит для меня хорошо. Поскольку minimax и alphabeta дают одинаковые результаты при правильной реализации, вы должны иметь возможность использовать свой старый минимаксный код в качестве проверки против alphabeta, по крайней мере, для скромной глубины поиска. Если их результаты различаются при поиске в одном и том же дереве игр, то вы знаете, что сделали что-то не так.

Но, скорее всего, плохая игра является результатом чего-то в вашей функции оценки.

Другие вопросы по тегам