如何从sql查询中提取表名和列名?

时间:2016-02-25 10:28:23

标签: python sql regex sqlite parsing

因此,假设我们有这样简单的查询:

Select a.col1, b.col2 from tb1 as a inner join tb2 as b on tb1.col7 = tb2.col8;

结果应该是这样的:

tb1 col1
tb1 col7
tb2 col2
tb2 col8

我尝试使用一些python库来解决这个问题:

1)即使仅使用sqlparse提取表格也可能是个大问题。例如,this官方书籍根本无法正常使用。

2)使用正则表达式似乎很难实现。

3)但后来我找到了this,这可能会有所帮助。但问题是我无法连接到任何数据库并执行该查询。

有什么想法吗?

8 个答案:

答案 0 :(得分:8)

sql-metadata是一个Python库,它使用python-sqlparse返回的标记化查询并生成查询元数据。

此元数据可以从您提供的SQL查询中返回列名和表名。以下是sql-metadata github自述文件中的几个示例:

>>> sql_metadata.get_query_columns("SELECT test, id FROM foo, bar")
[u'test', u'id']

>>> sql_metadata.get_query_tables("SELECT test, id FROM foo, bar")
[u'foo', u'bar']

>>> sql_metadata.get_query_limit_and_offset('SELECT foo_limit FROM bar_offset LIMIT 50 OFFSET 1000')
(50, 1000)

答案 1 :(得分:2)

真的,这不是一件容易的事。您可以使用词法分析器(在此示例中为ply)并定义若干规则以从字符串中获取多个标记。以下代码为SQL字符串的不同部分定义了这些规则,并将它们重新组合在一起,因为输入字符串中可能存在别名。因此,您将获得一个字典(result),其中包含不同的表名作为键。

import ply.lex as lex, re

tokens = (
    "TABLE",
    "JOIN",
    "COLUMN",
    "TRASH"
)

tables = {"tables": {}, "alias": {}}
columns = []

t_TRASH = r"Select|on|=|;|\s+|,|\t|\r"

def t_TABLE(t):
    r"from\s(\w+)\sas\s(\w+)"

    regex = re.compile(t_TABLE.__doc__)
    m = regex.search(t.value)
    if m is not None:
        tbl = m.group(1)
        alias = m.group(2)
        tables["tables"][tbl] = ""
        tables["alias"][alias] = tbl

    return t

def t_JOIN(t):
    r"inner\s+join\s+(\w+)\s+as\s+(\w+)"

    regex = re.compile(t_JOIN.__doc__)
    m = regex.search(t.value)
    if m is not None:
        tbl = m.group(1)
        alias = m.group(2)
        tables["tables"][tbl] = ""
        tables["alias"][alias] = tbl
    return t

def t_COLUMN(t):
    r"(\w+\.\w+)"

    regex = re.compile(t_COLUMN.__doc__)
    m = regex.search(t.value)
    if m is not None:
        t.value = m.group(1)
        columns.append(t.value)
    return t

def t_error(t):
    raise TypeError("Unknown text '%s'" % (t.value,))
    t.lexer.skip(len(t.value))

# here is where the magic starts
def mylex(inp):
    lexer = lex.lex()
    lexer.input(inp)

    for token in lexer:
        pass

    result = {}
    for col in columns:
        tbl, c = col.split('.')
        if tbl in tables["alias"].keys():
            key = tables["alias"][tbl]
        else:
            key = tbl

        if key in result:
            result[key].append(c)
        else:
            result[key] = list()
            result[key].append(c)

    print result
    # {'tb1': ['col1', 'col7'], 'tb2': ['col2', 'col8']}    

string = "Select a.col1, b.col2 from tb1 as a inner join tb2 as b on tb1.col7 = tb2.col8;"
mylex(string)

答案 2 :(得分:1)

我正在解决类似的问题,并找到了一个更简单的解决方案,它似乎运作良好。

import re

def tables_in_query(sql_str):

    # remove the /* */ comments
    q = re.sub(r"/\*[^*]*\*+(?:[^*/][^*]*\*+)*/", "", sql_str)

    # remove whole line -- and # comments
    lines = [line for line in q.splitlines() if not re.match("^\s*(--|#)", line)]

    # remove trailing -- and # comments
    q = " ".join([re.split("--|#", line)[0] for line in lines])

    # split on blanks, parens and semicolons
    tokens = re.split(r"[\s)(;]+", q)

    # scan the tokens. if we see a FROM or JOIN, we set the get_next
    # flag, and grab the next one (unless it's SELECT).

    table = set()
    get_next = False
    for tok in tokens:
        if get_next:
            if tok.lower() not in ["", "select"]:
                table.add(tok)
            get_next = False
        get_next = tok.lower() in ["from", "join"]

    dictTables = dict()
    for table in tables:
        fields = []
        for token in tokens:
            if token.startswith(table):
                if token != table:
                    fields.append(token)
        if len(list(set(fields))) >= 1:
        dictTables[table] = list(set(fields))
    return dictTables

代码改编自https://grisha.org/blog/2016/11/14/table-names-from-sql/

答案 3 :(得分:1)

import pandas as pd
#%config PPMagics.autolimit=0


#txt = """<your SQL text here>"""
txt_1 = txt
replace_list = ['\n', '(', ')', '*', '=','-',';','/','.']
count = 0
for i in replace_list:
    txt_1 = txt_1.replace(i, ' ')
txt_1 = txt_1.split()
res = []
for i in range(1, len(txt_1)):
    if txt_1[i-1].lower() in ['from', 'join','table'] and txt_1[i].lower() != 'select': 
        count +=1
        str_count = str(count)
        res.append(txt_1[i] + "." + txt_1[i+1])


#df.head()
res_l = res
f_res_l = []
for i in range(0,len(res_l)):
    if len(res_l[i]) > 15 : # change it to 0 is you want all the caught strings
        f_res_l.append(res_l[i])
    else :
        pass

All_Table_List = f_res_l
print("All the unique tables from the SQL text, in the order of their appearence in the code : \n",100*'*')
df = pd.DataFrame(All_Table_List,columns=['Tables_Names'])
df.reset_index(level=0, inplace=True)
list_=list(df["Tables_Names"].unique())
df_1_Final = pd.DataFrame(list_,columns=['Tables_Names'])
df_1_Final.reset_index(level=0, inplace=True)
df_1_Final

答案 4 :(得分:1)

对于我的简单用例(查询中的一个表,没有连接),我使用了以下调整

lst = "select * from table".split(" ")
lst = [item for item in lst if len(item)>0]
table_name = lst[lst.index("from")+1]

答案 5 :(得分:0)

不幸的是,为了成功地对“复杂的SQL”查询执行此操作,您或多或少必须为正在使用的特定数据库引擎实现完整的解析器。

作为示例,请考虑以下非常基本的复杂查询:

WITH a AS (
    SELECT col1 AS c FROM b
)
SELECT c FROM a

在这种情况下,a不是表,而是公用表表达式(CTE),应从输出中排除。没有简单的方法可以使用regexp:es来实现b是表访问,而a不是-您的代码实际上必须更深入地了解SQL。

也考虑

SELECT * FROM tbl

您必须知道实际存在于数据库特定实例中的列名(也可以由特定用户访问)才能正确回答。

如果通过“使用复杂的SQL”表示您必须使用任何有效的SQL语句,则还需要指定哪个SQL方言-或实现方言特定的解决方案。可以与由未实现CTE的数据库处理的任何SQL配合使用的解决方案将无法解决该问题。

很抱歉这么说,但是我认为您不会找到适用于任意复杂SQL查询的完整解决方案。您必须解决一个可以与特定SQL方言的子集一起使用的解决方案。

答案 6 :(得分:0)

创建数据库中存在的所有表的列表。然后,您可以在查询中搜索每个表名。 这显然不是万无一失的,如果任何列/别名都与表名匹配,则代码将中断。 但这可以作为解决方法。

答案 7 :(得分:0)

moz-sql-parser是一个python库,用于将SQL-92查询的某些子集转换为可实现JSON的解析树。也许是您想要的。

这里是一个例子。

>>> parse("SELECT id,name FROM dual WHERE id>3 and id<10 ORDER BY name")
{'select': [{'value': 'id'}, {'value': 'name'}], 'from': 'dual', 'where': {'and': [{'gt': ['id', 3]}, {'lt': ['id', 10]}]}, 'orderby': {'value': 'name'}}