更新了与数据库交互的代码,以适配 SQLAlchemy 2.0 引入的 API 变更,解决相关的废弃警告和异步调用问题。 主要变更包括: - 使用 `scalars().first()` 替代已废弃的 `scalar()` 方法。 - 在获取所有标量结果时显式调用 `.all()`。 - 对异步引擎 `get_engine()` 的调用进行 `await`。 - 移除了向 Inspector 方法(如 `get_table_names`)传递多余的 `conn` 参数。
129 lines
5.7 KiB
Python
129 lines
5.7 KiB
Python
# mmc/src/common/database/db_migration.py
|
|
|
|
from sqlalchemy import inspect
|
|
from sqlalchemy.schema import CreateIndex
|
|
from sqlalchemy.sql import text
|
|
|
|
from src.common.database.sqlalchemy_models import Base, get_engine
|
|
from src.common.logger import get_logger
|
|
|
|
logger = get_logger("db_migration")
|
|
|
|
|
|
async def check_and_migrate_database():
|
|
"""
|
|
异步检查数据库结构并自动迁移。
|
|
- 自动创建不存在的表。
|
|
- 自动为现有表添加缺失的列。
|
|
- 自动为现有表创建缺失的索引。
|
|
"""
|
|
logger.info("正在检查数据库结构并执行自动迁移...")
|
|
engine = await get_engine()
|
|
|
|
async with engine.connect() as connection:
|
|
# 在同步上下文中运行inspector操作
|
|
def get_inspector(sync_conn):
|
|
return inspect(sync_conn)
|
|
|
|
inspector = await connection.run_sync(get_inspector)
|
|
|
|
# 在同步lambda中传递inspector
|
|
db_table_names = await connection.run_sync(lambda conn: set(inspector.get_table_names()))
|
|
|
|
# 1. 首先处理表的创建
|
|
tables_to_create = []
|
|
for table_name, table in Base.metadata.tables.items():
|
|
if table_name not in db_table_names:
|
|
tables_to_create.append(table)
|
|
|
|
if tables_to_create:
|
|
logger.info(f"发现 {len(tables_to_create)} 个不存在的表,正在创建...")
|
|
try:
|
|
# 一次性创建所有缺失的表
|
|
await connection.run_sync(
|
|
lambda sync_conn: Base.metadata.create_all(sync_conn, tables=tables_to_create)
|
|
)
|
|
for table in tables_to_create:
|
|
logger.info(f"表 '{table.name}' 创建成功。")
|
|
db_table_names.add(table.name) # 将新创建的表添加到集合中
|
|
except Exception as e:
|
|
logger.error(f"创建表时失败: {e}", exc_info=True)
|
|
|
|
# 2. 然后处理现有表的列和索引的添加
|
|
for table_name, table in Base.metadata.tables.items():
|
|
if table_name not in db_table_names:
|
|
logger.warning(f"跳过检查表 '{table_name}',因为它在创建步骤中可能已失败。")
|
|
continue
|
|
|
|
logger.debug(f"正在检查表 '{table_name}' 的列和索引...")
|
|
|
|
try:
|
|
# 检查并添加缺失的列
|
|
db_columns = await connection.run_sync(
|
|
lambda conn: {col["name"] for col in inspector.get_columns(table_name)}
|
|
)
|
|
model_columns = {col.name for col in table.c}
|
|
missing_columns = model_columns - db_columns
|
|
|
|
if missing_columns:
|
|
logger.info(f"在表 '{table_name}' 中发现缺失的列: {', '.join(missing_columns)}")
|
|
|
|
def add_columns_sync(conn):
|
|
dialect = conn.dialect
|
|
for column_name in missing_columns:
|
|
column = table.c[column_name]
|
|
|
|
# 使用DDLCompiler为特定方言编译列
|
|
compiler = dialect.ddl_compiler(dialect, None)
|
|
|
|
# 编译列的数据类型
|
|
column_type = compiler.get_column_specification(column)
|
|
|
|
# 构建原生SQL
|
|
sql = f"ALTER TABLE {table.name} ADD COLUMN {column.name} {column_type}"
|
|
|
|
# 添加默认值(如果存在)
|
|
if column.default:
|
|
default_value = compiler.render_literal_value(column.default.arg, column.type)
|
|
sql += f" DEFAULT {default_value}"
|
|
|
|
# 添加非空约束(如果存在)
|
|
if not column.nullable:
|
|
sql += " NOT NULL"
|
|
|
|
conn.execute(text(sql))
|
|
logger.info(f"成功向表 '{table_name}' 添加列 '{column_name}'。")
|
|
|
|
await connection.run_sync(add_columns_sync)
|
|
else:
|
|
logger.info(f"表 '{table_name}' 的列结构一致。")
|
|
|
|
# 检查并创建缺失的索引
|
|
db_indexes = await connection.run_sync(
|
|
lambda conn: {idx["name"] for idx in inspector.get_indexes(table_name)}
|
|
)
|
|
model_indexes = {idx.name for idx in table.indexes}
|
|
missing_indexes = model_indexes - db_indexes
|
|
|
|
if missing_indexes:
|
|
logger.info(f"在表 '{table_name}' 中发现缺失的索引: {', '.join(missing_indexes)}")
|
|
|
|
def add_indexes_sync(conn):
|
|
with conn.begin():
|
|
for index_name in missing_indexes:
|
|
index_obj = next((idx for idx in table.indexes if idx.name == index_name), None)
|
|
if index_obj is not None:
|
|
conn.execute(CreateIndex(index_obj))
|
|
logger.info(f"成功为表 '{table_name}' 创建索引 '{index_name}'。")
|
|
|
|
await connection.run_sync(add_indexes_sync)
|
|
else:
|
|
logger.debug(f"表 '{table_name}' 的索引一致。")
|
|
|
|
except Exception as e:
|
|
logger.error(f"在处理表 '{table_name}' 时发生意外错误: {e}", exc_info=True)
|
|
continue
|
|
|
|
logger.info("数据库结构检查与自动迁移完成。")
|
|
|