我跟随Exercism.io的Rust赛道。我有相当数量的C / C ++经验。我喜欢Rust的“功能”元素,但我关注相对性能。
我解决了'run length encoding' problem:
pub fn encode(source: &str) -> String {
let mut retval = String::new();
let firstchar = source.chars().next();
let mut currentchar = match firstchar {
Some(x) => x,
None => return retval,
};
let mut currentcharcount: u32 = 0;
for c in source.chars() {
if c == currentchar {
currentcharcount += 1;
} else {
if currentcharcount > 1 {
retval.push_str(¤tcharcount.to_string());
}
retval.push(currentchar);
currentchar = c;
currentcharcount = 1;
}
}
if currentcharcount > 1 {
retval.push_str(¤tcharcount.to_string());
}
retval.push(currentchar);
retval
}
我注意到最受欢迎的答案之一看起来更像是这样的:
extern crate itertools;
use itertools::Itertools;
pub fn encode(data: &str) -> String {
data.chars()
.group_by(|&c| c)
.into_iter()
.map(|(c, group)| match group.count() {
1 => c.to_string(),
n => format!("{}{}", n, c),
})
.collect()
}
我喜欢最受欢迎的解决方案;它简单,实用,优雅。这就是他们向我承诺的Rust会是什么。另一方面,我的是可变的变量。你可以告诉我已经习惯了C ++。
我的问题是功能风格对性能产生了重大影响。我测试了两个版本,使用相同的4MB随机数据编码1000次。我的迫切解决方案花了不到10秒;功能解决方案是〜2mins30seconds。
TL; DR
在某些情况下,功能实现可能比原始程序实现更快。
为什么功能风格比命令式风格慢得多?功能实现是否存在导致如此大幅放缓的问题?
作为Matthieu M. already pointed out,需要注意的重要一点是算法很重要。如何表达该算法(程序性,命令性,面向对象,功能性,声明性)通常无关紧要。
我看到功能代码的两个主要问题:
to_string
和format!
完成的。group_by
的开销,它存在给出一个嵌套的迭代器,你不需要只是为了得到计数。使用更多的itertools(batching
,take_while_ref
,format_with
)使两个实现更接近:
pub fn encode_slim(data: &str) -> String {
data.chars()
.batching(|it| {
it.next()
.map(|v| (v, it.take_while_ref(|&v2| v2 == v).count() + 1))
})
.format_with("", |(c, count), f| match count {
1 => f(&c),
n => f(&format_args!("{}{}", n, c)),
})
.to_string()
}
使用RUSTFLAGS='-C target-cpu=native'
编译的4MiB随机字母数字数据的基准:
encode (procedural) time: [21.082 ms 21.620 ms 22.211 ms]
encode (fast) time: [26.457 ms 27.104 ms 27.882 ms]
Found 7 outliers among 100 measurements (7.00%)
4 (4.00%) high mild
3 (3.00%) high severe
如果您对创建自己的迭代器感兴趣,可以将过程代码与更多功能代码混合搭配:
struct RunLength<I> {
iter: I,
saved: Option<char>,
}
impl<I> RunLength<I>
where
I: Iterator<Item = char>,
{
fn new(mut iter: I) -> Self {
let saved = iter.next(); // See footnote 1
Self { iter, saved }
}
}
impl<I> Iterator for RunLength<I>
where
I: Iterator<Item = char>,
{
type Item = (char, usize);
fn next(&mut self) -> Option<Self::Item> {
let c = self.saved.take().or_else(|| self.iter.next())?;
let mut count = 1;
while let Some(n) = self.iter.next() {
if n == c {
count += 1
} else {
self.saved = Some(n);
break;
}
}
Some((c, count))
}
}
pub fn encode_tiny(data: &str) -> String {
use std::fmt::Write;
RunLength::new(data.chars()).fold(String::new(), |mut s, (c, count)| {
match count {
1 => s.push(c),
n => write!(&mut s, "{}{}", n, c).unwrap(),
}
s
})
}
1 - 感谢Stargateur for pointing out急切地获得第一个值有助于分支预测。
使用RUSTFLAGS='-C target-cpu=native'
编译的4MiB随机字母数字数据的基准:
encode (procedural) time: [19.888 ms 20.301 ms 20.794 ms]
Found 4 outliers among 100 measurements (4.00%)
3 (3.00%) high mild
1 (1.00%) high severe
encode (tiny) time: [19.150 ms 19.262 ms 19.399 ms]
Found 11 outliers among 100 measurements (11.00%)
5 (5.00%) high mild
6 (6.00%) high severe
我相信这更清楚地显示了两种实现之间的主要根本区别:基于迭代器的解决方案是可恢复的。每当我们打电话给next
时,我们都需要看看是否有一个我们读过的前一个角色(self.saved
)。这为程序代码中没有的代码添加了一个分支。
另一方面,基于迭代器的解决方案更灵活 - 我们现在可以对数据进行各种转换,或者直接写入文件而不是String
等。自定义迭代器可以扩展为在泛型上运行键入而不是char
,使其非常灵活。
也可以看看:
如果我想编写高性能代码,我应该使用这种功能样式吗?
我会,直到基准测试显示它是瓶颈。然后评估它为什么是瓶颈。
总是要展示你的作品吧?
benchmark.人生
use criterion::{criterion_group, criterion_main, Criterion}; // 0.2.11
use rle::*;
fn criterion_benchmark(c: &mut Criterion) {
let data = rand_data(4 * 1024 * 1024);
c.bench_function("encode (procedural)", {
let data = data.clone();
move |b| b.iter(|| encode_proc(&data))
});
c.bench_function("encode (functional)", {
let data = data.clone();
move |b| b.iter(|| encode_iter(&data))
});
c.bench_function("encode (fast)", {
let data = data.clone();
move |b| b.iter(|| encode_slim(&data))
});
c.bench_function("encode (tiny)", {
let data = data.clone();
move |b| b.iter(|| encode_tiny(&data))
});
}
criterion_group!(benches, criterion_benchmark);
criterion_main!(benches);
礼拜.人生
use itertools::Itertools; // 0.8.0
use rand; // 0.6.5
pub fn rand_data(len: usize) -> String {
use rand::distributions::{Alphanumeric, Distribution};
let mut rng = rand::thread_rng();
Alphanumeric.sample_iter(&mut rng).take(len).collect()
}
pub fn encode_proc(source: &str) -> String {
let mut retval = String::new();
let firstchar = source.chars().next();
let mut currentchar = match firstchar {
Some(x) => x,
None => return retval,
};
let mut currentcharcount: u32 = 0;
for c in source.chars() {
if c == currentchar {
currentcharcount += 1;
} else {
if currentcharcount > 1 {
retval.push_str(¤tcharcount.to_string());
}
retval.push(currentchar);
currentchar = c;
currentcharcount = 1;
}
}
if currentcharcount > 1 {
retval.push_str(¤tcharcount.to_string());
}
retval.push(currentchar);
retval
}
pub fn encode_iter(data: &str) -> String {
data.chars()
.group_by(|&c| c)
.into_iter()
.map(|(c, group)| match group.count() {
1 => c.to_string(),
n => format!("{}{}", n, c),
})
.collect()
}
pub fn encode_slim(data: &str) -> String {
data.chars()
.batching(|it| {
it.next()
.map(|v| (v, it.take_while_ref(|&v2| v2 == v).count() + 1))
})
.format_with("", |(c, count), f| match count {
1 => f(&c),
n => f(&format_args!("{}{}", n, c)),
})
.to_string()
}
struct RunLength<I> {
iter: I,
saved: Option<char>,
}
impl<I> RunLength<I>
where
I: Iterator<Item = char>,
{
fn new(mut iter: I) -> Self {
let saved = iter.next();
Self { iter, saved }
}
}
impl<I> Iterator for RunLength<I>
where
I: Iterator<Item = char>,
{
type Item = (char, usize);
fn next(&mut self) -> Option<Self::Item> {
let c = self.saved.take().or_else(|| self.iter.next())?;
let mut count = 1;
while let Some(n) = self.iter.next() {
if n == c {
count += 1
} else {
self.saved = Some(n);
break;
}
}
Some((c, count))
}
}
pub fn encode_tiny(data: &str) -> String {
use std::fmt::Write;
RunLength::new(data.chars()).fold(String::new(), |mut s, (c, count)| {
match count {
1 => s.push(c),
n => write!(&mut s, "{}{}", n, c).unwrap(),
}
s
})
}
#[cfg(test)]
mod test {
use super::*;
#[test]
fn all_the_same() {
let data = rand_data(1024);
let a = encode_proc(&data);
let b = encode_iter(&data);
let c = encode_slim(&data);
let d = encode_tiny(&data);
assert_eq!(a, b);
assert_eq!(a, c);
assert_eq!(a, d);
}
}
让我们回顾一下功能实现!
这里提出的函数风格的一个重要问题是传递给map
方法的闭包,该方法分配了很多。在收集之前,每个单个字符首先映射到String
。
它还使用format
机器,已知它相对较慢。
有时候,人们会努力尝试获得“纯粹”的功能性解决方案,而不是:
let mut result = String::new();
for (c, group) in &source.chars().group_by(|&c| c) {
let count = group.count();
if count > 1 {
result.push_str(&count.to_string());
}
result.push(c);
}
就像qbxswpoi就像你的解决方案一样,并且不使用count > 1
机器时,只是分配。
与全功能解决方案相比,我期望获得显着的性能提升,同时与完全命令式解决方案相比,同时仍然利用format
提供额外的可读性。有时候,你应该混搭!