広告を閉じる

システムの 3 番目の開発者ベータ版 iOS 13 には多くの新しいガジェットが隠されています。その 1 つは自動アイコンタクト補正です。そうすれば、相手はあなたが相手の目を見ているような印象を持ちます。

さて、誰かと FaceTime 通話をしているとき、相手にはあなたの目が下がっていることがよくわかります。これは、カメラがディスプレイ内に直接ではなく、その上の上端にあるという事実によるものです。しかし、iOS 13 では、Apple は新しい ARKit 3 が主導的な役割を果たす、型破りなソリューションを考案しました。

システムは画像データをリアルタイムで調整するようになりました。そのため、たとえ目が下がっていても、iOS 13 では、あたかも相手の目を直接見ているかのように表示されます。この新機能をテストした数人の開発者がすでにソーシャルネットワークに登場しています。

たとえばウィル・シグモンもその一人で、鮮明な写真を提供してくれました。左の写真はiOS 12のFaceTime中の標準的な状況、右の写真はiOS 13のARKitによる自動補正を示しています。

iOS 13はFaceTime中のアイコンタクトを修正できる

この機能はARKit 3を使用します。iPhone Xでは利用できません。

待機していたマイク・ランドル氏はこの結果に満足している。さらに、これは彼が 2017 年に予測した特徴の XNUMX つです。ちなみに、彼の予測リスト全体は興味深いものです。

  • iPhoneは連続空間スキャンを使用して周囲の3Dオブジェクトを検出できるようになります
  • ソフトウェアが動きを予測できるようにし、目の動きでシステムのユーザー インターフェイスを制御できるようにする視線追跡 (Apple は 2017 年にこの分野のリーダーとみなされている SensoMotoric Instruments を買収しました)
  • 顔をスキャンして得られる生体認証データと健康データ(脈拍は何かなど)
  • たとえば、FaceTime 中に直接アイコンタクトを確実にするための高度な画像編集 (現在実現されています)
  • 機械学習により、iPhone は徐々にオブジェクト (部屋にいる人の数、テーブルの上の鉛筆の数、ワードローブに T シャツが何枚あるかなど) を数えられるようになります。
  • AR定規を使わずに物体を瞬時に計測(壁の高さなど)

一方、Dave Schukin 氏は、iOS 13 がアイコンタクトを修正するために ARKit を使用していることを認めました。スロー再生では、メガネを目にかける前に突然歪む様子を捉えることができます。

さらに、開発者の Aaron Brager 氏は、このシステムは ARKit 3 でのみ利用可能であり、最新の iPhone XS / XS Max および iPhone XR モデルに限定されている特別な API を使用していると付け加えました。古い iPhone X はこれらのインターフェースをサポートしていないため、この機能は利用できません。

ズドルイ: 9to5Mac

.