我试图模糊图像的一部分:
extension UIImage {
func blur(rect: CGRect, radius: CGFloat) -> UIImage? {
let context = CIContext(options: nil)
let inputImage = CIImage(cgImage: self.cgImage!)
let filter = CIFilter(name: "CIGaussianBlur")
filter?.setValue(inputImage, forKey: kCIInputImageKey)
filter?.setValue(radius, forKey: kCIInputRadiusKey)
let outputImage = filter?.outputImage
if let outputImage = outputImage {
let cgImage = context.createCGImage(outputImage, from: rect)
if let cgImage = cgImage {
return UIImage(cgImage: cgImage)
}
}
return nil
}
}
用法:
guard let blurredImage = self.imageView.image?.blur(rect: self.blur.frame, radius: 2.0) else { fatalError("could not blur image") }
let img = UIImageView(image: blurredImage)
img.frame = self.blur.frame
self.view.addSubview(img)
但是,当应用程序启动时,图片的错误部分会模糊不清。下面是图像;底部的矩形应该模糊背后的图像,但它会模糊其他部分。
看起来你走在正确的轨道上。需要完成一些事情......
可以通过将屏幕比例传递到您的方法并更新rect的原点和大小来调整比例
由于CoreGraphics和UIKit坐标系之间的转换,模糊部分的定位已关闭。为了解决这个问题,您只需要通过想要模糊的矩形的位置和高度减去窗口的高度(考虑到比例)
请查看以下代码:
extension UIImage {
func blur(rect: CGRect, radius: CGFloat, scale: CGFloat) -> UIImage? {
if let cgImage = self.cgImage {
let inputImage = CIImage(cgImage: cgImage)
let context = CIContext(options: nil)
let filter = CIFilter(name: "CIGaussianBlur")
filter?.setValue(inputImage, forKey: kCIInputImageKey)
filter?.setValue(radius, forKey: kCIInputRadiusKey)
// Rect bounds need to be adjusted for based on Image's Scale and Container's Scale
// Y Position Needs to be Inverted because of UIKit <-> CoreGraphics Coordinate Systems
let newRect = CGRect(
x: rect.minX * scale,
y: ((((CGFloat(cgImage.height) / scale)) - rect.minY - rect.height) * scale),
width: rect.width * scale,
height: rect.height * scale
)
if let outputImage = filter?.outputImage,
let cgImage = context.createCGImage(outputImage, from: newRect) {
return UIImage(
cgImage: cgImage,
scale: scale,
orientation: imageOrientation
)
}
}
return nil
}
}
let blurredImage = self.imageView.image?.blur(rect: self.blur.frame, radius: 2.0, scale: UIScreen.main.scale)
您是否注意到您的插图图像看起来不仅模糊,而且放大了?那应该是一个提示......
UIKit视图,框架和图像大小都在“点”中,这是一个用于进行布局的与显示分辨率无关的单元。即使iPhone X有更多像素,您的iPhone X显示屏也具有与iPhone 6/7/8显示屏相同的宽度。 (也就是说,它们的比例因子不同:iPhone 6/7/8是2倍,iPhone X是3倍。)
CGImage
和CIImage
测量像素,而不是点,因此在使用UIKit的视图尺寸时需要考虑屏幕的比例因子。由于您要从整个视图创建待模糊图像,然后仅渲染模糊图像的一部分,因此处理比例因子的位置将在您的createCGImage(_:from:)
调用中 - 只需乘以原点和大小整个视图的contentScaleFactor
你的矩形。
此外,请注意,您不一定需要通过CGImage
从UIImage
到CIImage
并返回 - 您可以将外部图像视图的图像传递给CIImage(image:)
,并将过滤器的结果传递给UIImage(ciImage:)
。在这种情况下,UIKit和CoreImage会为您管理渲染上下文,并且可能确保更好的性能(例如,通过将整个管道保留在GPU上)。但是由于您使用渲染调用来指定裁剪矩形,因此您需要在其他地方执行此操作 - 例如,CIImage
cropped(to:)
调用。
问题是在viewDidLoad
中添加任何叠加层都没有给出正确的框架大小添加它在侧面viewDidAppear