如何使用Python的gdata模块获取所有YouTube评论?

时间:2012-10-10 19:15:24

标签: python youtube-api gdata

希望获取给定视频中的所有评论,而不是一次只翻页。

from gdata import youtube as yt
from gdata.youtube import service as yts

client = yts.YouTubeService()
client.ClientLogin(username, pwd) #the pwd might need to be application specific fyi

comments = client.GetYouTubeVideoComments(video_id='the_id')
a_comment = comments.entry[0]

上面的代码让你抓住一条评论,可能是最近的评论,但我正在寻找一种方法来立即获取所有评论。这可能是Python的gdata模块吗?


comments的Youtube API文档,评论供稿docs和Python API docs

2 个答案:

答案 0 :(得分:7)

以下内容符合您要求使用Python YouTube API

的要求
from gdata.youtube import service

USERNAME = 'username@gmail.com'
PASSWORD = 'a_very_long_password'
VIDEO_ID = 'wf_IIbT8HGk'

def comments_generator(client, video_id):
    comment_feed = client.GetYouTubeVideoCommentFeed(video_id=video_id)
    while comment_feed is not None:
        for comment in comment_feed.entry:
             yield comment
        next_link = comment_feed.GetNextLink()
        if next_link is None:
             comment_feed = None
        else:
             comment_feed = client.GetYouTubeVideoCommentFeed(next_link.href)

client = service.YouTubeService()
client.ClientLogin(USERNAME, PASSWORD)

for comment in comments_generator(client, VIDEO_ID):
    author_name = comment.author[0].name.text
    text = comment.content.text
    print("{}: {}".format(author_name, text))

不幸的是,API会将可以检索的条目数限制为 1000 。这是我尝试使用手工制作的GetYouTubeVideoCommentFeed网址参数进行调整后的版本时出现的错误:

gdata.service.RequestError: {'status': 400, 'body': 'You cannot request beyond item 1000.', 'reason': 'Bad Request'}

请注意,相同的原则应适用于检索API的其他Feed中的条目。

如果您想手工制作GetYouTubeVideoCommentFeed网址参数,其格式为:

'https://gdata.youtube.com/feeds/api/videos/{video_id}/comments?start-index={sta‌​rt_index}&max-results={max_results}'

以下限制适用:start-index <= 1000max-results <= 50

答案 1 :(得分:2)

我现在唯一的解决方案,但它没有使用API​​,并且在有数千条评论时变慢。

import bs4, re, urllib2
#grab the page source for vide
data = urllib2.urlopen(r'http://www.youtube.com/all_comments?v=video_id') #example XhFtHW4YB7M
#pull out comments
soup = bs4.BeautifulSoup(data)
cmnts = soup.findAll(attrs={'class': 'comment yt-tile-default'})
#do something with them, ie count them
print len(cmnts)

请注意,由于'class'是一个内置的python名称,你不能通过regex或lambdas定期搜索'startwith',如here所示,因为你使用的是dict,而不是常规参数。由于BeautifulSoup,它也变得非常慢,但它需要被使用,因为etreeminidom由于某种原因找不到匹配的标签。即使在prettyfying()之后bs4