希望获取给定视频中的所有评论,而不是一次只翻页。
from gdata import youtube as yt
from gdata.youtube import service as yts
client = yts.YouTubeService()
client.ClientLogin(username, pwd) #the pwd might need to be application specific fyi
comments = client.GetYouTubeVideoComments(video_id='the_id')
a_comment = comments.entry[0]
上面的代码让你抓住一条评论,可能是最近的评论,但我正在寻找一种方法来立即获取所有评论。这可能是Python的gdata
模块吗?
答案 0 :(得分:7)
以下内容符合您要求使用Python YouTube API:
的要求from gdata.youtube import service
USERNAME = 'username@gmail.com'
PASSWORD = 'a_very_long_password'
VIDEO_ID = 'wf_IIbT8HGk'
def comments_generator(client, video_id):
comment_feed = client.GetYouTubeVideoCommentFeed(video_id=video_id)
while comment_feed is not None:
for comment in comment_feed.entry:
yield comment
next_link = comment_feed.GetNextLink()
if next_link is None:
comment_feed = None
else:
comment_feed = client.GetYouTubeVideoCommentFeed(next_link.href)
client = service.YouTubeService()
client.ClientLogin(USERNAME, PASSWORD)
for comment in comments_generator(client, VIDEO_ID):
author_name = comment.author[0].name.text
text = comment.content.text
print("{}: {}".format(author_name, text))
不幸的是,API会将可以检索的条目数限制为 1000 。这是我尝试使用手工制作的GetYouTubeVideoCommentFeed
网址参数进行调整后的版本时出现的错误:
gdata.service.RequestError: {'status': 400, 'body': 'You cannot request beyond item 1000.', 'reason': 'Bad Request'}
请注意,相同的原则应适用于检索API的其他Feed中的条目。
如果您想手工制作GetYouTubeVideoCommentFeed
网址参数,其格式为:
'https://gdata.youtube.com/feeds/api/videos/{video_id}/comments?start-index={start_index}&max-results={max_results}'
以下限制适用:start-index <= 1000
和max-results <= 50
。
答案 1 :(得分:2)
我现在唯一的解决方案,但它没有使用API,并且在有数千条评论时变慢。
import bs4, re, urllib2
#grab the page source for vide
data = urllib2.urlopen(r'http://www.youtube.com/all_comments?v=video_id') #example XhFtHW4YB7M
#pull out comments
soup = bs4.BeautifulSoup(data)
cmnts = soup.findAll(attrs={'class': 'comment yt-tile-default'})
#do something with them, ie count them
print len(cmnts)
请注意,由于'class'是一个内置的python名称,你不能通过regex或lambdas定期搜索'startwith',如here所示,因为你使用的是dict,而不是常规参数。由于BeautifulSoup,它也变得非常慢,但它需要被使用,因为etree
和minidom
由于某种原因找不到匹配的标签。即使在prettyfying()
之后bs4