虽然我知道我可以使用一些巨大的正则表达式,例如发布的here,我想知道是否有一些调整,如果使用标准模块或者某些第三方添加 - 上?
简单的问题,但Google(或Stackoverflow)上没有任何内容。
期待看到你们是怎么做到的!
答案 0 :(得分:13)
我知道这正是你不想要的,但这里有一个巨大的正则表达式文件:
#!/usr/bin/python
# -*- coding: utf-8 -*-
"""
the web url matching regex used by markdown
http://daringfireball.net/2010/07/improved_regex_for_matching_urls
https://gist.github.com/gruber/8891611
"""
URL_REGEX = r"""(?i)\b((?:https?:(?:/{1,3}|[a-z0-9%])|[a-z0-9.\-]+[.](?:com|net|org|edu|gov|mil|aero|asia|biz|cat|coop|info|int|jobs|mobi|museum|name|post|pro|tel|travel|xxx|ac|ad|ae|af|ag|ai|al|am|an|ao|aq|ar|as|at|au|aw|ax|az|ba|bb|bd|be|bf|bg|bh|bi|bj|bm|bn|bo|br|bs|bt|bv|bw|by|bz|ca|cc|cd|cf|cg|ch|ci|ck|cl|cm|cn|co|cr|cs|cu|cv|cx|cy|cz|dd|de|dj|dk|dm|do|dz|ec|ee|eg|eh|er|es|et|eu|fi|fj|fk|fm|fo|fr|ga|gb|gd|ge|gf|gg|gh|gi|gl|gm|gn|gp|gq|gr|gs|gt|gu|gw|gy|hk|hm|hn|hr|ht|hu|id|ie|il|im|in|io|iq|ir|is|it|je|jm|jo|jp|ke|kg|kh|ki|km|kn|kp|kr|kw|ky|kz|la|lb|lc|li|lk|lr|ls|lt|lu|lv|ly|ma|mc|md|me|mg|mh|mk|ml|mm|mn|mo|mp|mq|mr|ms|mt|mu|mv|mw|mx|my|mz|na|nc|ne|nf|ng|ni|nl|no|np|nr|nu|nz|om|pa|pe|pf|pg|ph|pk|pl|pm|pn|pr|ps|pt|pw|py|qa|re|ro|rs|ru|rw|sa|sb|sc|sd|se|sg|sh|si|sj|Ja|sk|sl|sm|sn|so|sr|ss|st|su|sv|sx|sy|sz|tc|td|tf|tg|th|tj|tk|tl|tm|tn|to|tp|tr|tt|tv|tw|tz|ua|ug|uk|us|uy|uz|va|vc|ve|vg|vi|vn|vu|wf|ws|ye|yt|yu|za|zm|zw)/)(?:[^\s()<>{}\[\]]+|\([^\s()]*?\([^\s()]+\)[^\s()]*?\)|\([^\s]+?\))+(?:\([^\s()]*?\([^\s()]+\)[^\s()]*?\)|\([^\s]+?\)|[^\s`!()\[\]{};:\'\".,<>?«»“”‘’])|(?:(?<!@)[a-z0-9]+(?:[.\-][a-z0-9]+)*[.](?:com|net|org|edu|gov|mil|aero|asia|biz|cat|coop|info|int|jobs|mobi|museum|name|post|pro|tel|travel|xxx|ac|ad|ae|af|ag|ai|al|am|an|ao|aq|ar|as|at|au|aw|ax|az|ba|bb|bd|be|bf|bg|bh|bi|bj|bm|bn|bo|br|bs|bt|bv|bw|by|bz|ca|cc|cd|cf|cg|ch|ci|ck|cl|cm|cn|co|cr|cs|cu|cv|cx|cy|cz|dd|de|dj|dk|dm|do|dz|ec|ee|eg|eh|er|es|et|eu|fi|fj|fk|fm|fo|fr|ga|gb|gd|ge|gf|gg|gh|gi|gl|gm|gn|gp|gq|gr|gs|gt|gu|gw|gy|hk|hm|hn|hr|ht|hu|id|ie|il|im|in|io|iq|ir|is|it|je|jm|jo|jp|ke|kg|kh|ki|km|kn|kp|kr|kw|ky|kz|la|lb|lc|li|lk|lr|ls|lt|lu|lv|ly|ma|mc|md|me|mg|mh|mk|ml|mm|mn|mo|mp|mq|mr|ms|mt|mu|mv|mw|mx|my|mz|na|nc|ne|nf|ng|ni|nl|no|np|nr|nu|nz|om|pa|pe|pf|pg|ph|pk|pl|pm|pn|pr|ps|pt|pw|py|qa|re|ro|rs|ru|rw|sa|sb|sc|sd|se|sg|sh|si|sj|Ja|sk|sl|sm|sn|so|sr|ss|st|su|sv|sx|sy|sz|tc|td|tf|tg|th|tj|tk|tl|tm|tn|to|tp|tr|tt|tv|tw|tz|ua|ug|uk|us|uy|uz|va|vc|ve|vg|vi|vn|vu|wf|ws|ye|yt|yu|za|zm|zw)\b/?(?!@)))"""
我将该文件称为urlmarker.py
,当我需要它时,我只需导入它,例如
import urlmarker
import re
re.findall(urlmarker.URL_REGEX,'some text news.yahoo.com more text')
比照http://daringfireball.net/2010/07/improved_regex_for_matching_urls
此外,这是Django(1.6)用于验证URLField
s:
regex = re.compile(
r'^(?:http|ftp)s?://' # http:// or https://
r'(?:(?:[A-Z0-9](?:[A-Z0-9-]{0,61}[A-Z0-9])?\.)+(?:[A-Z]{2,6}\.?|[A-Z0-9-]{2,}\.?)|' # domain...
r'localhost|' # localhost...
r'\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}|' # ...or ipv4
r'\[?[A-F0-9]*:[A-F0-9:]+\]?)' # ...or ipv6
r'(?::\d+)?' # optional port
r'(?:/?|[/?]\S+)$', re.IGNORECASE)
比照https://github.com/django/django/blob/1.6/django/core/validators.py#L43-50
Django 1.9将逻辑拆分为几个类
答案 1 :(得分:12)
在这里看看Django的方法:django.utils.urlize()
。 Regexs对于这项工作来说太有限了,你必须使用启发式方法来获得最合适的结果。
答案 2 :(得分:12)
...可在此页面找到:In search of the perfect URL validation regex。
通过所有测试的Diego Perini正则表达式非常长,但可以在他的要点here上找到。
请注意,您必须将他的PHP版本转换为python正则表达式(略有不同)。
我最终使用的Imme Emosol版本通过绝大多数测试,只是Diego Perini的一小部分。
这是Imme Emosol正则表达式的python兼容版本:
r'^(?:(?:https?|ftp)://)(?:\S+(?::\S*)?@)?(?:(?:[1-9]\d?|1\d\d|2[01]\d|22[0-3])(?:\.(?:1?\d{1,2}|2[0-4]\d|25[0-5])){2}(?:\.(?:[1-9]\d?|1\d\d|2[0-4]\d|25[0-4]))|(?:(?:[a-z\u00a1-\uffff0-9]+-?)*[a-z\u00a1-\uffff0-9]+)(?:\.(?:[a-z\u00a1-\uffff0-9]+-?)*[a-z\u00a1-\uffff0-9]+)*(?:\.(?:[a-z\u00a1-\uffff]{2,})))(?::\d{2,5})?(?:/[^\s]*)?$'
答案 3 :(得分:8)
使用正则表达式。
回复OP的评论:我知道这没有帮助。我告诉你解决问题的正确方法,因为你声明它是使用正则表达式。
答案 4 :(得分:6)
您可以使用我写的这个库:
https://github.com/imranghory/urlextractor
这非常hacky,但它不像许多其他技术那样依赖“http://”,而是使用Mozilla TLD列表(通过tldextract库)来搜索TLD(即“.co.uk”) ,“。com”等,然后尝试在TLD周围构建网址。
它的目标不是符合RFC,而是准确了解在现实世界中如何使用网址。因此,例如,它将拒绝技术上有效的域“com”(您实际上可以使用TLD作为域;虽然它在实践中很少见)并且将从URL中删除跟踪句点或逗号。
答案 5 :(得分:4)
如果您知道字符串中的空格后面有一个URL,您可以执行以下操作:
s是包含url的字符串
>>> t = s[s.find("http://"):]
>>> t = t[:t.find(" ")]
否则你需要检查find是否返回-1。
答案 6 :(得分:4)
您可以使用BeautifulSoup。
def extractlinks(html):
soup = BeautifulSoup(html)
anchors = soup.findAll('a')
links = []
for a in anchors:
links.append(a['href'])
return links
请注意,使用正则表达式的解决方案速度更快,但不会那么准确。
答案 7 :(得分:3)
我已经迟到了,但这里有一个解决方案,来自freenode的#python的人向我建议。它避免了正则表达式的麻烦。
from urlparse import urlparse
def extract_urls(text):
"""Return a list of urls from a text string."""
out = []
for word in text.split(' '):
thing = urlparse(word.strip())
if thing.scheme:
out.append(word)
return out
答案 8 :(得分:0)
import re
text = '<p>Please click <a href="http://www.dr-chuck.com">here</a></p>'
aa=re.findall('href="(.+)"',text)
print(aa)
答案 9 :(得分:0)
还有另一种方法可以轻松地从文本中提取URL。您可以使用urlextract为您完成,只需通过pip安装:
pip install urlextract
然后你可以像这样使用它:
from urlextract import URLExtract
extractor = URLExtract()
urls = extractor.find_urls("Let's have URL stackoverflow.com as an example.")
print(urls) # prints: ['stackoverflow.com']
您可以在我的github页面上找到更多信息:https://github.com/lipoja/URLExtract
注意:它会从iana.org下载TLD列表,以使您保持最新状态。但是,如果该程序没有互联网访问权限,那么它不适合您。
这种方法与urlextractor(上面提到的)类似,但我的代码是最新的,维护的,我对任何建议(新功能)都是开放的。