itertools.permutations生成的位置根据其位置而不是其值来将其元素视为唯一元素。所以基本上我想避免像这样的重复:
>>> list(itertools.permutations([1, 1, 1]))
[(1, 1, 1), (1, 1, 1), (1, 1, 1), (1, 1, 1), (1, 1, 1), (1, 1, 1)]
之后的过滤是不可能的,因为在我的情况下排列量太大了。
有人知道合适的算法吗?
非常感谢!
修改
我基本上想要的是以下内容:
x = itertools.product((0, 1, 'x'), repeat=X)
x = sorted(x, key=functools.partial(count_elements, elem='x'))
这是不可能的,因为sorted
创建了一个列表,并且itertools.product的输出太大了。
对不起,我应该已经描述了实际问题。
答案 0 :(得分:49)
class unique_element:
def __init__(self,value,occurrences):
self.value = value
self.occurrences = occurrences
def perm_unique(elements):
eset=set(elements)
listunique = [unique_element(i,elements.count(i)) for i in eset]
u=len(elements)
return perm_unique_helper(listunique,[0]*u,u-1)
def perm_unique_helper(listunique,result_list,d):
if d < 0:
yield tuple(result_list)
else:
for i in listunique:
if i.occurrences > 0:
result_list[d]=i.value
i.occurrences-=1
for g in perm_unique_helper(listunique,result_list,d-1):
yield g
i.occurrences+=1
a = list(perm_unique([1,1,2]))
print(a)
结果:
[(2, 1, 1), (1, 2, 1), (1, 1, 2)]
编辑(这是如何工作的):
我重写了上层程序更长但更易读
我通常很难解释某些事情的运作方式,但让我试一试。 为了理解这是如何工作的,你必须理解类似的,但是一个更简单的程序,它会产生重复的所有排列。
def permutations_with_replacement(elements,n):
return permutations_helper(elements,[0]*n,n-1)#this is generator
def permutations_helper(elements,result_list,d):
if d<0:
yield tuple(result_list)
else:
for i in elements:
result_list[d]=i
all_permutations = permutations_helper(elements,result_list,d-1)#this is generator
for g in all_permutations:
yield g
这个程序显然要简单得多: d代表permutations_helper中的深度,有两个功能。一个函数是停止递归算法的条件,另一个函数是结果列表,它被传递。
而不是返回每个结果,我们产生它。如果没有函数/运算符yield
,我们必须在停止条件点将结果推入某个队列。但这种方式一旦停止条件满足结果就会传播到所有堆栈直到调用者。这是目的
for g in perm_unique_helper(listunique,result_list,d-1): yield g
所以每个结果都传播给调用者。
返回原始程序:
我们有独特的元素列表。在我们可以使用每个元素之前,我们必须检查它们中有多少仍可用于在result_list上推送它。与permutations_with_replacement
相比,此程序的工作非常相似,不同之处在于每个元素的重复次数不能超过perm_unique_helper。
答案 1 :(得分:28)
因为有时新问题被标记为重复,并且他们的作者被引用到这个问题,所以提及 sympy 为此目的有一个迭代器可能很重要。
>>> from sympy.utilities.iterables import multiset_permutations
>>> list(multiset_permutations([1,1,1]))
[[1, 1, 1]]
>>> list(multiset_permutations([1,1,2]))
[[1, 1, 2], [1, 2, 1], [2, 1, 1]]
答案 2 :(得分:21)
这依赖于实现细节,即排序迭代的任何排列都按排序顺序排除,除非它们是先前排列的重复。
from itertools import permutations
def unique_permutations(iterable, r=None):
previous = tuple()
for p in permutations(sorted(iterable), r):
if p > previous:
previous = p
yield p
for p in unique_permutations('cabcab', 2):
print p
给出
('a', 'a')
('a', 'b')
('a', 'c')
('b', 'a')
('b', 'b')
('b', 'c')
('c', 'a')
('c', 'b')
('c', 'c')
答案 3 :(得分:11)
您可以尝试使用set:
>>> list(itertools.permutations(set([1,1,2,2])))
[(1, 2), (2, 1)]
设置删除重复的调用
答案 4 :(得分:11)
与Luka Rahne的答案大致相同,但更短和更短更简单,恕我直言。
def unique_permutations(elements):
if len(elements) == 1:
yield (elements[0],)
else:
unique_elements = set(elements)
for first_element in unique_elements:
remaining_elements = list(elements)
remaining_elements.remove(first_element)
for sub_permutation in unique_permutations(remaining_elements):
yield (first_element,) + sub_permutation
>>> list(unique_permutations((1,2,3,1)))
[(1, 1, 2, 3), (1, 1, 3, 2), (1, 2, 1, 3), ... , (3, 1, 2, 1), (3, 2, 1, 1)]
它通过设置第一个元素(遍历所有唯一元素)递归工作,并迭代所有剩余元素的排列。
让我们通过(1,2,3,1)的unique_permutations
看看它是如何运作的:
unique_elements
是1,2,3 first_element
以1开头。
remaining_elements
是[2,3,1](即1,2,3,1减去前1)sub_permutation
,我们插入first_element
:( 1 ,1,2,3),( 1 ,1,3 ,2),...并产生结果。first_element
= 2,并执行与上面相同的操作。
remaining_elements
是[1,3,1](即1,2,3,1减去前2)sub_permutation
,我们插入first_element
:( 2 ,1,1,3),( 2 ,1,3 ,1),( 2 ,3,1,1)......并得出结果。first_element
= 3。答案 5 :(得分:8)
这是我的10行解决方案:
class Solution(object):
def permute_unique(self, nums):
perms = [[]]
for n in nums:
new_perm = []
for perm in perms:
for i in range(len(perm) + 1):
new_perm.append(perm[:i] + [n] + perm[i:])
# handle duplication
if i < len(perm) and perm[i] == n: break
perms = new_perm
return perms
if __name__ == '__main__':
s = Solution()
print s.permute_unique([1, 1, 1])
print s.permute_unique([1, 2, 1])
print s.permute_unique([1, 2, 3])
---结果----
[[1, 1, 1]]
[[1, 2, 1], [2, 1, 1], [1, 1, 2]]
[[3, 2, 1], [2, 3, 1], [2, 1, 3], [3, 1, 2], [1, 3, 2], [1, 2, 3]]
答案 6 :(得分:4)
一种天真的方法可能是采取一组排列:
import itertools as it
import more_itertools as mit
list(mit.distinct_permutations([1, 1, 1]))
# [(1, 1, 1)]
然而,这种技术浪费地计算复制排列并丢弃它们。更有效的方法是more_itertools.distinct_permutations
,third-party tool。
<强>代码强>
iterable = [1, 1, 1, 1, 1, 1]
len(list(it.permutations(iterable)))
# 720
%timeit -n 10000 list(set(it.permutations(iterable)))
# 10000 loops, best of 3: 111 µs per loop
%timeit -n 10000 list(mit.distinct_permutations(iterable))
# 10000 loops, best of 3: 16.7 µs per loop
<强>性能强>
使用更大的可迭代,我们将比较天真和第三方技术之间的表现。
more_itertools.distinct_permutations
我们发现{{1}}的速度提高了一个数量级。
<强>详情
从源头开始,递归算法(如接受的答案中所示)用于计算不同的排列,从而避免了浪费的计算。有关详细信息,请参阅source code。
答案 7 :(得分:3)
听起来你正在寻找itertools.combinations()docs.python.org
list(itertools.combinations([1, 1, 1],3))
[(1, 1, 1)]
答案 8 :(得分:2)
在自己寻找东西的时候碰到这个问题!
这就是我的所作所为:
def dont_repeat(x=[0,1,1,2]): # Pass a list
from itertools import permutations as per
uniq_set = set()
for byt_grp in per(x, 4):
if byt_grp not in uniq_set:
yield byt_grp
uniq_set.update([byt_grp])
print uniq_set
for i in dont_repeat(): print i
(0, 1, 1, 2)
(0, 1, 2, 1)
(0, 2, 1, 1)
(1, 0, 1, 2)
(1, 0, 2, 1)
(1, 1, 0, 2)
(1, 1, 2, 0)
(1, 2, 0, 1)
(1, 2, 1, 0)
(2, 0, 1, 1)
(2, 1, 0, 1)
(2, 1, 1, 0)
set([(0, 1, 1, 2), (1, 0, 1, 2), (2, 1, 0, 1), (1, 2, 0, 1), (0, 1, 2, 1), (0, 2, 1, 1), (1, 1, 2, 0), (1, 2, 1, 0), (2, 1, 1, 0), (1, 0, 2, 1), (2, 0, 1, 1), (1, 1, 0, 2)])
基本上,制作一套并继续添加它。比制作太多记忆的列表等更好.. 希望它有助于下一个人注意:-)注释掉设置&#39;更新&#39;在功能中看到差异。
答案 9 :(得分:1)
这是问题的递归解决方案。
def permutation(num_array):
res=[]
if len(num_array) <= 1:
return [num_array]
for num in set(num_array):
temp_array = num_array.copy()
temp_array.remove(num)
res += [[num] + perm for perm in permutation(temp_array)]
return res
arr=[1,2,2]
print(permutation(arr))
答案 10 :(得分:1)
您可以创建一个函数,该函数使用collections.Counter
从给定序列中获取唯一项及其计数,并使用itertools.combinations
为每个递归调用中的每个唯一项选择索引组合,并映射选择所有索引后,将索引返回到列表:
from collections import Counter
from itertools import combinations
def unique_permutations(seq):
def index_permutations(counts, index_pool):
if not counts:
yield {}
return
(item, count), *rest = counts.items()
rest = dict(rest)
for indices in combinations(index_pool, count):
mapping = dict.fromkeys(indices, item)
for others in index_permutations(rest, index_pool.difference(indices)):
yield {**mapping, **others}
indices = set(range(len(seq)))
for mapping in index_permutations(Counter(seq), indices):
yield [mapping[i] for i in indices]
使[''.join(i) for i in unique_permutations('moon')]
返回:
['moon', 'mono', 'mnoo', 'omon', 'omno', 'nmoo', 'oomn', 'onmo', 'nomo', 'oonm', 'onom', 'noom']
答案 11 :(得分:0)
前几天遇到了我自己的问题。我喜欢Luka Rahne的方法,但我认为在集合库中使用Counter类似乎是一种适度的改进。这是我的代码:
def unique_permutations(elements):
"Returns a list of lists; each sublist is a unique permutations of elements."
ctr = collections.Counter(elements)
# Base case with one element: just return the element
if len(ctr.keys())==1 and ctr[ctr.keys()[0]] == 1:
return [[ctr.keys()[0]]]
perms = []
# For each counter key, find the unique permutations of the set with
# one member of that key removed, and append the key to the front of
# each of those permutations.
for k in ctr.keys():
ctr_k = ctr.copy()
ctr_k[k] -= 1
if ctr_k[k]==0:
ctr_k.pop(k)
perms_k = [[k] + p for p in unique_permutations(ctr_k)]
perms.extend(perms_k)
return perms
此代码将每个排列作为列表返回。如果你给它一个字符串,它会给你一个排列列表,其中每个都是一个字符列表。如果你想要输出作为字符串列表(例如,如果你是一个可怕的人并且你想滥用我的代码来帮助你在拼字游戏中作弊),那么就这样做:
[''.join(perm) for perm in unique_permutations('abunchofletters')]
答案 12 :(得分:0)
怎么样?
np.unique(itertools.permutations([1, 1, 1]))
问题是排列现在是Numpy数组的行,因此使用更多内存,但你可以像以前一样循环它们
perms = np.unique(itertools.permutations([1, 1, 1]))
for p in perms:
print p
答案 13 :(得分:0)
在这种情况下,我想出了一个非常合适的使用itertools.product的实现(这是一个你想要所有组合的实现
unique_perm_list = [''.join(p) for p in itertools.product(['0', '1'], repeat = X) if ''.join(p).count() == somenumber]
这实际上是n = X且somenumber = k的组合(n超过k) itertools.product()从k = 0迭代到k = X后续的count计数确保只有具有正确数量的1的排列被强制转换为列表。当你计算n超过k并将其与len(unique_perm_list)进行比较时,你可以很容易地看到它是有效的
答案 14 :(得分:0)
我见过的解决此问题的最佳方法是使用Knuth的“算法L”(如Gerrat先前在原始帖子的评论中所述):
http://stackoverflow.com/questions/12836385/how-can-i-interleave-or-create-unique-permutations-of-two-stings-without-recurs/12837695
一些时间:
排序[1]*12+[0]*12
(2,704,156个唯一排列):
算法L→2.43 s
卢克·拉涅(Luke Rahne)的解决方案→8.56 s
scipy.multiset_permutations()
→16.8 s
答案 15 :(得分:0)
要生成["A","B","C","D"]
的唯一排列,我使用以下内容:
from itertools import combinations,chain
l = ["A","B","C","D"]
combs = (combinations(l, r) for r in range(1, len(l) + 1))
list_combinations = list(chain.from_iterable(combs))
哪个生成:
[('A',),
('B',),
('C',),
('D',),
('A', 'B'),
('A', 'C'),
('A', 'D'),
('B', 'C'),
('B', 'D'),
('C', 'D'),
('A', 'B', 'C'),
('A', 'B', 'D'),
('A', 'C', 'D'),
('B', 'C', 'D'),
('A', 'B', 'C', 'D')]
注意,不会创建重复项(例如,与D
组合的项不会生成,因为它们已经存在)。
示例:然后,它可以用于通过Pandas数据框中的数据为OLS模型生成高阶或低阶项。
import statsmodels.formula.api as smf
import pandas as pd
# create some data
pd_dataframe = pd.Dataframe(somedata)
response_column = "Y"
# generate combinations of column/variable names
l = [col for col in pd_dataframe.columns if col!=response_column]
combs = (combinations(l, r) for r in range(1, len(l) + 1))
list_combinations = list(chain.from_iterable(combs))
# generate OLS input string
formula_base = '{} ~ '.format(response_column)
list_for_ols = [":".join(list(item)) for item in list_combinations]
string_for_ols = formula_base + ' + '.join(list_for_ols)
创建...
Y ~ A + B + C + D + A:B + A:C + A:D + B:C + B:D + C:D + A:B:C + A:B:D + A:C:D + B:C:D + A:B:C:D'
然后可以将其传送到您的OLS regression
model = smf.ols(string_for_ols, pd_dataframe).fit()
model.summary()
答案 16 :(得分:0)
适应于删除递归,使用字典和numba以获得高性能,但不使用yield / generator样式,因此内存使用不受限制:
import numba
@numba.njit
def perm_unique_fast(elements): #memory usage too high for large permutations
eset = set(elements)
dictunique = dict()
for i in eset: dictunique[i] = elements.count(i)
result_list = numba.typed.List()
u = len(elements)
for _ in range(u): result_list.append(0)
s = numba.typed.List()
results = numba.typed.List()
d = u
while True:
if d > 0:
for i in dictunique:
if dictunique[i] > 0: s.append((i, d - 1))
i, d = s.pop()
if d == -1:
dictunique[i] += 1
if len(s) == 0: break
continue
result_list[d] = i
if d == 0: results.append(result_list[:])
dictunique[i] -= 1
s.append((i, -1))
return results
import timeit
l = [2, 2, 3, 3, 4, 4, 5, 5, 6, 6]
%timeit list(perm_unique(l))
#377 ms ± 26 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
ltyp = numba.typed.List()
for x in l: ltyp.append(x)
%timeit perm_unique_fast(ltyp)
#293 ms ± 3.37 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
assert list(sorted(perm_unique(l))) == list(sorted([tuple(x) for x in perm_unique_fast(ltyp)]))
速度提高约30%,但由于列表复制和管理仍然受到影响。
或者没有numba,但仍然没有递归,并使用生成器来避免内存问题:
def perm_unique_fast_gen(elements):
eset = set(elements)
dictunique = dict()
for i in eset: dictunique[i] = elements.count(i)
result_list = list() #numba.typed.List()
u = len(elements)
for _ in range(u): result_list.append(0)
s = list()
d = u
while True:
if d > 0:
for i in dictunique:
if dictunique[i] > 0: s.append((i, d - 1))
i, d = s.pop()
if d == -1:
dictunique[i] += 1
if len(s) == 0: break
continue
result_list[d] = i
if d == 0: yield result_list
dictunique[i] -= 1
s.append((i, -1))
答案 17 :(得分:0)
这是我尝试不使用set / dict,作为使用递归的生成器,但使用字符串作为输入的尝试。输出也按自然顺序排序:
def perm_helper(head: str, tail: str):
if len(tail) == 0:
yield head
else:
last_c = None
for index, c in enumerate(tail):
if last_c != c:
last_c = c
yield from perm_helper(
head + c, tail[:index] + tail[index + 1:]
)
def perm_generator(word):
yield from perm_helper("", sorted(word))
示例:
from itertools import takewhile
word = "POOL"
list(takewhile(lambda w: w != word, (x for x in perm_generator(word))))
# output
# ['LOOP', 'LOPO', 'LPOO', 'OLOP', 'OLPO', 'OOLP', 'OOPL', 'OPLO', 'OPOL', 'PLOO', 'POLO']
答案 18 :(得分:-1)
ans=[]
def fn(a, size):
if (size == 1):
if a.copy() not in ans:
ans.append(a.copy())
return
for i in range(size):
fn(a,size-1);
if size&1:
a[0], a[size-1] = a[size-1],a[0]
else:
a[i], a[size-1] = a[size-1],a[i]
https://www.geeksforgeeks.org/heaps-algorithm-for-generating-permutations/