Отелло Альфа-Бета Обрезка играет плохо питона
В настоящее время я пытаюсь сделать хороший ИИ для Отелло, и сделал это с помощью алгоритма Minimax. Однако, когда я попытался сделать более глубокий поиск с использованием альфа-бета-обрезки, казалось, что алгоритм работает ужасно. Я проверил это с другими источниками, такими как Wiki и Berkely.edu, и я думаю, что реализовал это правильно, но я все еще не могу найти проблему.
def alphabeta(board, player, a, b, lev):
h = heur(board, player)
if lev == 0:
return h, None
poss = get_legal_moves(board, player)
if len(poss) == 0:
return h, None
move = 0
for x in poss:
cpboard = board[:]
cpboard[x] = player
bracket(cpboard, player, x)
a1, q = alphabeta(cpboard, opponent_color(player), a, b, lev-1)
if player is me:
if a1 > a:
a, move = a1, x
else:
if a1 < b:
b, move = a1, x
if b <= a:
break
if player is me:
return a, move
else:
return b, move
2 ответа
Ваш альфа-бета-код, вероятно, неверен. Знайте, что происходит, когда игрок "проходит ход" (то есть не имеет доступных ходов), из-за этого у меня была хитрая ошибка в моем коде.
Вы вызывали рекурсию с переключенными значениями альфа и бета? Моя работает так (код Java):
private float minimax(OthelloBoard board, OthelloMove best, float alpha, float beta, int depth)
{
float bestResult = -Float.MAX_VALUE;
OthelloMove garbage = new OthelloMove();
int state = board.getState();
int currentPlayer = board.getCurrentPlayer();
if (state == OthelloBoard.STATE_DRAW)
return 0.0f;
if ((state == OthelloBoard.STATE_BLACK_WINS) && (currentPlayer == OthelloBoard.BLACK))
return INFINITY;
if ((state == OthelloBoard.STATE_WHITE_WINS) && (currentPlayer == OthelloBoard.WHITE))
return INFINITY;
if ((state == OthelloBoard.STATE_BLACK_WINS) && (currentPlayer == OthelloBoard.WHITE))
return -INFINITY;
if ((state == OthelloBoard.STATE_WHITE_WINS) && (currentPlayer == OthelloBoard.BLACK))
return -INFINITY;
if (depth == maxDepth)
return OthelloHeuristics.eval(currentPlayer, board);
ArrayList<OthelloMove> moves = board.getAllMoves(currentPlayer);
for (OthelloMove mv : moves)
{
board.makeMove(mv);
alpha = - minimax(board, garbage, -beta, -alpha, depth + 1);
board.undoMove(mv);
if (beta <= alpha)
return alpha;
if (alpha > bestResult)
{
best.setFlipSquares(mv.getFlipSquares());
best.setIdx(mv.getIdx());
best.setPlayer(mv.getPlayer());
bestResult = alpha;
}
}
return bestResult;
}
Звонок как:
OthelloMove bestFound = new OthelloMove();
int maxDepth = 8;
minimax(board, bestFound, -Float.MAX_VALUE, Float.MAX_VALUE, maxDepth);
//Wait for Thread to finish
board.makeMove(bestFound);
Редактировать: Если у игрока нет доступных ходов, getAllMoves() возвращает "фиктивный ход", который вообще не меняет доску, просто пропустите ход.
Надеюсь, поможет!
Ваша реализация в алфавитном порядке выглядит для меня хорошо. Поскольку minimax и alphabeta дают одинаковые результаты при правильной реализации, вы должны иметь возможность использовать свой старый минимаксный код в качестве проверки против alphabeta, по крайней мере, для скромной глубины поиска. Если их результаты различаются при поиске в одном и том же дереве игр, то вы знаете, что сделали что-то не так.
Но, скорее всего, плохая игра является результатом чего-то в вашей функции оценки.