我一直在搜索此站点和Boost.Log文档以找到实现此目的的方法,但到目前为止却空无一物。
文档(https://www.boost.org/doc/libs/1_74_0/libs/log/doc/html/log/detailed/sink_backends.html)提到了将import pandas as pd
df = pd.DataFrame({'col0': ('a0', 'b0', 'c0', 'de0', 'sas'),
'col1': ('a', 'b', 'c', 'd', 'ef'),
'col2': ('A', 'A', 'A', 'B', 'B')})
sorted_df = sorted_df = df.melt('col2', value_name='col1').drop(columns='variable')\
.sort_values('col1').reset_index(drop=True).sort_index(axis=1)
print(df)
col0 col1 col2
0 a0 a A
1 b0 b A
2 c0 c A
3 de0 d B
4 sas ef B
print(sorted_df)
col1 col2
0 a A
1 a0 A
2 b A
3 b0 A
4 c A
5 c0 A
6 d B
7 de0 B
8 ef B
9 sas B
设置为在通过调用text_stream_backend
写入的每个日志记录之后刷新的功能。
虽然这对调试很有效,但我想知道是否有可能在auto_flush(true)
发生之前配置core
(或sink
?)收到的自定义数量的日志记录。 。我的目标是在有用的实时日志记录(我可以经常用flush()
看到日志记录)和性能之间取得平衡。
或者,是否可以配置包含日志记录的缓冲区的大小,以便一旦缓冲区填满就被刷新?