proj2 finished

This commit is contained in:
2025-12-08 10:47:07 +08:00
parent d4b6cb2c82
commit 1a1cca472e
234 changed files with 13964 additions and 0 deletions

130
proj2/README_CN.md Normal file
View File

@@ -0,0 +1,130 @@
# Project 2: Multi-Agent Pacman 实验报告
本实验旨在通过编写 Pacman 智能体来实践对抗搜索算法Adversarial Search。主要涉及 Reflex Agent反射智能体、Minimax极大极小算法、Alpha-Beta PruningAlpha-Beta 剪枝)以及 Expectimax期望最大算法和评估函数的设计。
## 实验环境
- **操作系统**: Linux
- **语言**: Python 3
- **文件**: `multiAgents.py` (主要修改文件)
---
## Q1: Reflex Agent (反射智能体)
### 任务描述
编写 `ReflexAgent` 类中的 `evaluationFunction` 方法。该智能体通过评估当前状态及其后续动作的得分来选择最佳动作。不仅要考虑吃豆子,还要避免碰到幽灵。
### 实现逻辑
我们在 `evaluationFunction` 中综合考虑了以下因素:
1. **当前分数 (`successorGameState.getScore()`)**: 基础得分。
2. **食物距离**: 计算 Pacman 到最近食物的曼哈顿距离。距离越近,得分越高(使用倒数 `1.0 / (distance + 1)`)。
3. **幽灵距离**:
- 如果幽灵距离过近(小于 2 格)且处于非受惊状态,返回极低分(代表死亡风险)。
- 如果幽灵处于受惊状态Scared则不用过于担心。
### 核心代码片段
```python
# 计算到最近食物的距离
minFoodDist = min([util.manhattanDistance(newPos, food) for food in foodList])
# 避免幽灵
for i, ghostState in enumerate(newGhostStates):
# ... (省略部分代码)
if dist < 2 and newScaredTimes[i] == 0:
return -999999
return successorGameState.getScore() + 1.0 / (minFoodDist + 1)
```
---
## Q2: Minimax (极大极小算法)
### 任务描述
`MinimaxAgent` 类中实现 Minimax 算法。该算法假设对手(幽灵)也是最优的,即 Pacman 试图最大化分数,而幽灵试图最小化分数。
### 知识点讲解
Minimax 算法是一种递归算法,用于在两人零和博弈中找到最优策略。
- **MAX 层 (Pacman)**: 选择能获得最大评估值的动作。
- **MIN 层 (Ghosts)**: 选择会导致最小评估值的动作。
- **深度 (Depth)**: 搜索树的深度。本实验中一层Ply包含 Pacman 的一步和所有幽灵的一步。
### 实现细节
我们实现了一个递归函数 `minimax(agentIndex, depth, gameState)`
- **终止条件**: 达到最大深度 `self.depth` 或游戏结束(胜/负)。
- **Agent 轮转**: `agentIndex` 从 0 (Pacman) 到 `numAgents - 1`。当 `agentIndex` 回到 0 时,深度 `depth` 加 1。
- **状态值传递**: 递归向上层传递最优值Max 或 Min
---
## Q3: Alpha-Beta Pruning (Alpha-Beta 剪枝)
### 任务描述
`AlphaBetaAgent` 类中实现带有 Alpha-Beta 剪枝的 Minimax 算法,以提高搜索效率。
### 知识点讲解
Minimax 算法会搜索整个博弈树计算量巨大。Alpha-Beta 剪枝通过维护两个值 `alpha``beta` 来忽略那些不需要搜索的分支:
- **Alpha (α)**: MAX 节点目前找到的最好(最大)值的下界。
- **Beta (β)**: MIN 节点目前找到的最好(最小)值的上界。
- **剪枝规则**:
- 在 MAX 节点,如果发现某分支的值 `v > beta`,则 MIN 父节点绝不会选择该分支(因为父节点已有更小的值 β),故剪枝。
- 在 MIN 节点,如果发现 `v < alpha`,则 MAX 父节点绝不会选择该分支,故剪枝。
### 实现细节
`alphaBeta` 递归函数中增加 `alpha``beta` 参数,并在循环中动态更新它们。注意不要在剪枝时改变节点的访问顺序,以通过 Autograder 的严格检查。
---
## Q4 (Optional/Part of Logic): Expectimax (期望最大算法)
*虽然任务主要要求 Q1-Q3但也实现了 Expectimax 以备不时之需。*
### 知识点讲解
Expectimax 假设对手幽灵不一定是最优的而是随机行动。MIN 节点变为 CHANCE 节点,计算所有可能动作的期望值(平均值)。这更符合随机幽灵的行为模式。
---
## Q5: Evaluation Function (评估函数)
### 任务描述
编写 `betterEvaluationFunction`,用于评估非终止状态的好坏。这是实现高性能智能体的关键。
### 设计思路
我们需要根据当前状态特征给出一个数值评分,特征及其权重如下:
1. **基础分数**: 游戏自带的得分。
2. **食物距离 (权重 +10)**: 鼓励吃掉最近的食物。
3. **胶囊距离 (权重 +20)**: 鼓励去吃能量胶囊。
4. **受惊幽灵 (权重 +100)**: 如果幽灵被吓坏了,鼓励去吃掉它们(距离越近分越高)。
5. **活跃幽灵 (权重 -1000)**: 如果幽灵正常且距离太近,给予极大的惩罚。
6. **剩余食物数量 (权重 -4)**: 剩余越少越好。
7. **剩余胶囊数量 (权重 -20)**: 剩余越少越好。
通过线性组合这些特征Pacman 能够在复杂的环境中表现出色,既能躲避追捕,又能积极得分。
---
## 如何运行测试
可以使用 `autograder.py` 来验证各个问题的实现:
1. **测试 Q1 (Reflex Agent)**:
```bash
python autograder.py -q q1
```
2. **测试 Q2 (Minimax)**:
```bash
python autograder.py -q q2
```
3. **测试 Q3 (Alpha-Beta)**:
```bash
python autograder.py -q q3
```
4. **测试 Q5 (Evaluation Function)**:
```bash
python autograder.py -q q5
```
如果不希望显示图形界面(加快测试速度),可以添加 `--no-graphics` 参数。