据彭博社报道,苹果公司已经以未公开的价格收购了总部位于英国的初创公司Spectral Edge,而该公司的技术可以用于改善iPhone上的照片质量。


从公开的资料中获悉,Spectral Edge于2011年初在英国东安格利亚大学成立,主要研究方向是利用图像处理算法来对标准镜头和红外镜头的数据融合,以提高照片成像质量。根据官方的说法,这种图像处理算法被称为Phusion,在有雾或过度曝光的场景中,可以通过这种算法锐化细节。其中的原理,则是利用红外线在雾中相比于可见光有更强的穿透性。因此,在大雾环境中,通过红外线获得的数据,相比可见光要多出不少。


但在以往,也有不少技术试图通过同样的原理进行对图像和影像的处理,但效果并不理想。比如军方所使用的能够识别目标的武器系统,这种情况下所产生的图像,只能够帮助识别目标,而不是从视觉角度上带来更好的画面质量,Phusion图形处理算法则是为了提供更好更自然的图像。据悉,Phusion是通过将图片转换成梯度空间来实现的,算法需要做到的是区分每个像素相对于多维的其他像素和颜色,它保存了每一个梯度,即图片中的所有渐变和边缘都被完美地保存了下来。以下面的照片为例:



左边的照片是使用标准相机拍摄的照片,而另一张是采用了Phusion技术处理过的照片,明显在景深以及色彩还原方面有着更好的表现。


除了在大雾模糊的环境中之外,由于红外滤镜可以降低污点的“副作用”,因此该技术还能够有美化人像照片的作用。同时,作为利用红外传感器作为辅助的一项技术,在暗光环境下的图像质量也能获得大幅提升。另外,夜拍作为目前衡量智能手机拍照性能的一项重要标准,而限制智能手机夜拍性能的很大一部分原因,就是小型传感器进光量少的问题,因此这项技术与智能手机能够完美地契合。


在今年5月的台北电脑展上,Spectral Edge还展示了针对红外+普通镜头的新型图像信号处理器。其特性是能够同时动态使用RGB-IR综合图像传感器输出的红、蓝、绿和近红外光这四个通道数值,实时平衡近红外光通道的影响和颜色校正,并将它们智能融合为三个通道线性数据,以实现肉眼可以看到全色面的RGB及IR图像,且无需AI网络的介入。


如今,随着手机摄像竞赛日趋激烈,如何在成像技术上取得提升已经成为了各大手机以及芯片厂商的研发重点。譬如,在上月发布的搭载了三星ISOCELL Bright HMX 1亿像素CMOS的小米CC9 Pro、骁龙865支持2亿像素CMOS、以及苹果今年首次在iPhone上使用三摄模组等等。



对于苹果来说,在摄像头硬件上“堆料”并不是他们一向的作风,从过往iPhone的拍照性能来看,苹果更加热衷于通过优秀的软件算法来提高成像质量,并且在拍摄视频方面一直处于领先地位,这也是iPhone被称为“Vlog神器”的原因。但近几年,安卓阵营在摄像硬件上的绝对领先让iPhone受到了前所未有的挑战。


在iPhoneX以前,iPhone系列一直占据着权威第三方影像设备评测机构DxO的排行榜榜首,但随着华为、三星等厂家的崛起,iPhone只能将榜首的位置拱手让人。在最新的DxO排行榜上,华为Mate30 pro与小米CC9 Pro占据着排行榜前二名,今年9月发布的最新款iPhone11 Pro Max也只能屈居第三。


因此,这也很容易理解苹果收购Spectral Edge的原因。与此同时,在今年5月,苹果CEO库克接受CNBC采访的时候透露,苹果在今年上半年平均每周就收购一家公司。嗅到了危机感的苹果也在通过大量的收购来加强自己在技术方面的积累,但一般来说,最终收购所获得的成果可能会在数年后才会显现出来,尽管苹果通过收购获得了一定的强化自身拍照技术的硬实力,但最终能否在后续的iPhone新机上得以体现,仍然是未知数。所以,我们是不是可以期待一下,或许在2022年我们就可以见到带有后置红外传感器的iPhone出现呢?


来源:华强电子网