我正在寻找一个函数weighted_sample
的合理定义,它不会为给定权重列表返回一个随机索引(类似于
def weighted_choice(weights, random=random):
""" Given a list of weights [w_0, w_1, ..., w_n-1],
return an index i in range(n) with probability proportional to w_i. """
rnd = random.random() * sum(weights)
for i, w in enumerate(weights):
if w<0:
raise ValueError("Negative weight encountered.")
rnd -= w
if rnd < 0:
return i
raise ValueError("Sum of weights is not positive")
给出具有恒定权重的分类分布)但随机抽样k
,无替换,就像random.sample
行为与random.choice
相比
正如weighted_choice
可写为
lambda weights: random.choice([val for val, cnt in enumerate(weights)
for i in range(cnt)])
weighted_sample
可以写成
lambda weights, k: random.sample([val for val, cnt in enumerate(weights)
for i in range(cnt)], k)
但是我想要一个解决方案,不需要我将权重解析为(可能是巨大的)列表。
编辑:如果有任何好的算法可以给我一个直方图/频率列表(格式与参数weights
相同)而不是一系列索引,那也非常有用。 / p>
答案 0 :(得分:7)
从你的代码:..
weight_sample_indexes = lambda weights, k: random.sample([val
for val, cnt in enumerate(weights) for i in range(cnt)], k)
..我认为权重是正整数,并且通过&#34;没有替换&#34;你的意思是没有替换解开的序列。
以下是基于random.sample和O(log n)__getitem__
的解决方案:
import bisect
import random
from collections import Counter, Sequence
def weighted_sample(population, weights, k):
return random.sample(WeightedPopulation(population, weights), k)
class WeightedPopulation(Sequence):
def __init__(self, population, weights):
assert len(population) == len(weights) > 0
self.population = population
self.cumweights = []
cumsum = 0 # compute cumulative weight
for w in weights:
cumsum += w
self.cumweights.append(cumsum)
def __len__(self):
return self.cumweights[-1]
def __getitem__(self, i):
if not 0 <= i < len(self):
raise IndexError(i)
return self.population[bisect.bisect(self.cumweights, i)]
total = Counter()
for _ in range(1000):
sample = weighted_sample("abc", [1,10,2], 5)
total.update(sample)
print(sample)
print("Frequences %s" % (dict(Counter(sample)),))
# Check that values are sane
print("Total " + ', '.join("%s: %.0f" % (val, count * 1.0 / min(total.values()))
for val, count in total.most_common()))
['b', 'b', 'b', 'c', 'c']
Frequences {'c': 2, 'b': 3}
Total b: 10, c: 2, a: 1
答案 1 :(得分:3)
您要创建的是非均匀随机分布。这样做的一个坏方法是创建一个巨大的数组,其输出符号与权重成比例。因此,如果a的可能性是b的5倍,则创建一个比b的数量多5倍的数组。这适用于权重甚至是彼此的倍数的简单分布。如果你想要99.99%a和.01%b怎么办?你必须创建10000个插槽。
有一种更好的方法。所有具有N个符号的非均匀分布都可以分解为一系列n-1个二元分布,每个分布都是相同的。
所以如果你有这样的解压缩,你首先通过从1 - N-1生成一个统一的随机数来随机选择二元分布
u32 dist = randInRange( 1, N-1 ); // generate a random number from 1 to N;
然后说选择的分布是一个带有两个符号a和b的二元分布,a的概率为0-alpha,b的概率为-α:
float f = randomFloat();
return ( f > alpha ) ? b : a;
如何分解任何非均匀随机分布有点复杂。基本上你创造了N-1'水桶'。选择具有最低概率的符号和具有最高概率的符号,并将它们的权重按比例分配到第一个二进制分布中。然后删除最小的符号,并删除用于创建此二进制分发的较大的权重。并重复此过程,直到没有符号为止。
如果您想使用此解决方案,我可以为此发布c ++代码。
答案 2 :(得分:0)
如果为random.sample()
构建正确的数据结构以进行操作,则根本不需要定义新函数。只需使用random.sample()
。
这里,__getitem__()
是O(n),其中n是具有权重的不同项目的数量。但它在内存中是紧凑的,只需要存储(weight, value)
对。我在练习中使用了类似的课程,而且我的目的很快。注意,此实现假定整数权重。
class SparseDistribution(object):
_cached_length = None
def __init__(self, weighted_items):
# weighted items are (weight, value) pairs
self._weighted_items = []
for item in weighted_items:
self.append(item)
def append(self, weighted_item):
self._weighted_items.append(weighted_item)
self.__dict__.pop("_cached_length", None)
def __len__(self):
if self._cached_length is None:
length = 0
for w, v in self._weighted_items:
length += w
self._cached_length = length
return self._cached_length
def __getitem__(self, index):
if index < 0 or index >= len(self):
raise IndexError(index)
for w, v in self._weighted_items:
if index < w:
return v
raise Exception("Shouldn't have happened")
def __iter__(self):
for w, v in self._weighted_items:
for _ in xrange(w):
yield v
然后,我们可以使用它:
import random
d = SparseDistribution([(5, "a"), (2, "b")])
d.append((3, "c"))
for num in (3, 5, 10, 11):
try:
print random.sample(d, num)
except Exception as e:
print "{}({!r})".format(type(e).__name__, str(e))
导致:
['a', 'a', 'b']
['b', 'a', 'c', 'a', 'b']
['a', 'c', 'a', 'c', 'a', 'b', 'a', 'a', 'b', 'c']
ValueError('sample larger than population')
答案 3 :(得分:0)
由于我目前最感兴趣的是结果的直方图,我想到了使用numpy.random.hypergeometric
的以下解决方案(遗憾的是ngood < 1
,nbad < 1
的边界情况不良行为和nsample < 1
,因此需要单独检查这些情况。)
def weighted_sample_histogram(frequencies, k, random=numpy.random):
""" Given a sequence of absolute frequencies [w_0, w_1, ..., w_n-1],
return a generator [s_0, s_1, ..., s_n-1] where the number s_i gives the
absolute frequency of drawing the index i from an urn in which that index is
represented by w_i balls, when drawing k balls without replacement. """
W = sum(frequencies)
if k > W:
raise ValueError("Sum of absolute frequencies less than number of samples")
for frequency in frequencies:
if k < 1 or frequency < 1:
yield 0
else:
W -= frequency
if W < 1:
good = k
else:
good = random.hypergeometric(frequency, W, k)
k -= good
yield good
raise StopIteration
我很乐意就如何改进这个或为什么这可能不是一个好的解决方案发表任何意见。
实现此功能的python包(以及其他加权随机内容)现在位于http://github.com/Anaphory/weighted_choice。
答案 4 :(得分:0)
另一种解决方案
from typing import List, Any
import numpy as np
def weighted_sample(choices: List[Any], probs: List[float]):
"""
Sample from `choices` with probability according to `probs`
"""
probs = np.concatenate(([0], np.cumsum(probs)))
r = random.random()
for j in range(len(choices) + 1):
if probs[j] < r <= probs[j + 1]:
return choices[j]
示例:
aa = [0,1,2,3]
probs = [0.1, 0.8, 0.0, 0.1]
np.average([weighted_sample(aa, probs) for _ in range(10000)])
Out: 1.0993
答案 5 :(得分:-3)
样本非常快。所以除非你有很多兆字节需要处理,所以sample()应该没问题。
在我的机器上,需要1.655秒才能从1000万长度100中取出1000个样本。 从10000000个元素遍历100000个长度为100的样本需要12.98秒。
from random import sample,random
from time import time
def generate(n1,n2,n3):
w = [random() for x in range(n1)]
print len(w)
samples = list()
for i in range(0,n2):
s = sample(w,n3)
samples.append(s)
return samples
start = time()
size_set = 10**7
num_samples = 10**5
length_sample = 100
samples = generate(size_set,num_samples,length_sample)
end = time()
allsum=0
for row in samples:
sum = reduce(lambda x, y: x+y,row)
allsum+=sum
print 'sum of all elements',allsum
print '%f seconds for %i samples of %i length %i'%((end-start),size_set,num_sam\
ples,length_sample)