最近在玩微距,景深浅得很。一旦超出最近对焦距离,那就会无法对上焦,并且是越靠近机身,也就离景深范围越远。
去年听说Adobe出了一个后期防抖,原理是虽然拍糊了,但是根据照片上的运动轨迹,反过来推测抖动轨迹,再反向处理图片,运算出清晰的图像。
那么根据这个原理,如果一个事物不在景深范围内(例如比最近对焦距离更近),肯定是无法在感光元件上成一个清晰像的。但可否通过采集其在焦外不同距离时不同弥散光斑的变大情况,反向推算出其清晰对焦时的情况?
标题能不能通过动态运算,得到焦外影像的清晰像? 标题链接http://wildgun.net/2013/02/%e8%83%bd%e4%b8%8d%e8%83%bd%e9%80%9a%e8%bf%87%e5%8a%a8%e6%80%81%e8%bf%90%e7%ae%97%ef%bc%8c%e5%be%97%e5%88%b0%e7%84%a6%e5%a4%96%e5%bd%b1%e5%83%8f%e7%9a%84%e6%b8%85%e6%99%b0%e5%83%8f%ef%bc%9f/ 导语最近在玩微距,景深浅得很。一旦超出最近对焦距离,那就会无法对上焦,并且是越靠近机身,也就离景深范围越远。 去年听说Adobe出了一个后期防抖,原理是虽然拍糊了,但是根据照片上的运动轨迹,反过来推测抖动轨迹,再反向处理图片,运算出清晰的图像。 那么根据这个原理,如果一个事物不在景深范围内(例如比最近对焦距离更近),肯定是无法在感光元件上成一个清晰像的。但可否通过采集其在焦外不同距离时不同弥散光斑的变大情况,反向推算出其清晰对焦时的情况? 日期时间2013年2月28日 正文最近在玩微距,景深浅得很。一旦超出最近对焦距离,那就会无法对上焦,并且是越靠近机身,也就离景深范围越远。 去年听说Adobe出了一个后期防抖,原理是虽然拍糊了,但是根据照片上的运动轨迹,反过来推测抖动轨迹,再反向处理图片,运算出清晰的图像。 那么根据这个原理,如果一个事物不在景深范围内(例如比最近对焦距离更近),肯定是无法在感光元件上成一个清晰像的。但可否通过采集其在焦外不同距离时不同弥散光斑的变大情况,反向推算出其清晰对焦时的情况? 文章信息Posted in: 摄影. Tagged: 微距摄影. Leave a Comment |