我有多个文件的评分,这些文件经过合并,并且每周都会发布时间戳以进行相同ID的测试,我必须将它们与主文件进行比较。如果收视率,完成度或速度发生任何变化,那么我想在原始文件后附加新的行和值,并按时间戳对其进行排序。
我能够创建一个球形的主df,但是当尝试比较时髦的东西时就发生了,例如检索到1行
# Note this is how to get the youtube url: `youtube-dl -f 22 -g https://www.youtube.com/watch?v=qxlVTsFbyKs`
url = 'https://r3---sn-tt1e7n7e.googlevideo.com/videoplayback?id=o-APMpsV_ubZwYnre71FtKIY7rTKTd1HmAGqjFS7D_W9vO&itag=22&source=youtube&requiressl=yes&mm=31%2C29&mn=sn-tt1e7n7e%2Csn-tt1eln7s&ms=au%2Crdu&mv=m&pl=25&ei=g-LdXNT1H-ODir4P0Jeb0Ag&initcwndbps=2695000&mime=video%2Fmp4&ratebypass=yes&dur=91.649&lmt=1556128078557211&mt=1558045252&fvip=3&c=WEB&txp=2216222&ip=184.75.215.122&ipbits=0&expire=1558066915&sparams=ip%2Cipbits%2Cexpire%2Cid%2Citag%2Csource%2Crequiressl%2Cmm%2Cmn%2Cms%2Cmv%2Cpl%2Cei%2Cinitcwndbps%2Cmime%2Cratebypass%2Cdur%2Clmt&signature=481807C3CAD81BC6CFA6E4131D5E734BC2CB63FC.2EBF166C597725BC02E9EE28227B9A9C815E224C&key=yt8'
# 60 seconds
import urllib.request
urllib.request.urlretrieve(url,"file.mp4")
# 50 seconds
import urllib.request
data = urllib.request.urlopen(url).read()
open('out.mp4', 'wb').write(data)
# 50 seconds
import subprocess
subprocess.check_call(["curl", "-L", url, "--output", "out4.mp4"])
我要做的是创建一个新的原始文件,并在其中按最新的修改日期对这些行进行排序