システムの 3 番目の開発者ベータ版 iOS 13 には多くの新しいガジェットが隠されています。その 1 つは自動アイコンタクト補正です。そうすれば、相手はあなたが相手の目を見ているような印象を持ちます。
さて、誰かと FaceTime 通話をしているとき、相手にはあなたの目が下がっていることがよくわかります。これは、カメラがディスプレイ内に直接ではなく、その上の上端にあるという事実によるものです。しかし、iOS 13 では、Apple は新しい ARKit 3 が主導的な役割を果たす、型破りなソリューションを考案しました。
システムは画像データをリアルタイムで調整するようになりました。そのため、たとえ目が下がっていても、iOS 13 では、あたかも相手の目を直接見ているかのように表示されます。この新機能をテストした数人の開発者がすでにソーシャルネットワークに登場しています。
たとえばウィル・シグモンもその一人で、鮮明な写真を提供してくれました。左の写真はiOS 12のFaceTime中の標準的な状況、右の写真はiOS 13のARKitによる自動補正を示しています。
この機能はARKit 3を使用します。iPhone Xでは利用できません。
待機していたマイク・ランドル氏はこの結果に満足している。さらに、これは彼が 2017 年に予測した特徴の XNUMX つです。ちなみに、彼の予測リスト全体は興味深いものです。
- iPhoneは連続空間スキャンを使用して周囲の3Dオブジェクトを検出できるようになります
- ソフトウェアが動きを予測できるようにし、目の動きでシステムのユーザー インターフェイスを制御できるようにする視線追跡 (Apple は 2017 年にこの分野のリーダーとみなされている SensoMotoric Instruments を買収しました)
- 顔をスキャンして得られる生体認証データと健康データ(脈拍は何かなど)
- たとえば、FaceTime 中に直接アイコンタクトを確実にするための高度な画像編集 (現在実現されています)
- 機械学習により、iPhone は徐々にオブジェクト (部屋にいる人の数、テーブルの上の鉛筆の数、ワードローブに T シャツが何枚あるかなど) を数えられるようになります。
- AR定規を使わずに物体を瞬時に計測(壁の高さなど)
一方、Dave Schukin 氏は、iOS 13 がアイコンタクトを修正するために ARKit を使用していることを認めました。スロー再生では、メガネを目にかける前に突然歪む様子を捉えることができます。
iOS 13 FaceTime Attention Correctionの仕組み:ARKitを使用して顔の深度マップ/位置を取得し、それに応じて目を調整します。
目と鼻の両方を横切る線のゆがみに注意してください。 pic.twitter.com/U7PMa4oNGN
—デイブ・シューキン? (@schukin) 2022年7月11日
さらに、開発者の Aaron Brager 氏は、このシステムは ARKit 3 でのみ利用可能であり、最新の iPhone XS / XS Max および iPhone XR モデルに限定されている特別な API を使用していると付け加えました。古い iPhone X はこれらのインターフェースをサポートしていないため、この機能は利用できません。
ズドルイ: 9to5Mac
男が何日間も私を見つめないように、他の RSS フィードの更新情報を追加することはできませんか? …