昨日、日本でもついにApple Intelligenceがリリースされました。早速、テキスト周り、画像・写真周りを中心に使ってみました。
個人的には、ハードウェアとソフトウェアの緊密な統合で知られるAppleが、特に日本人のわたしたちに対して、どのような新たな体験をもたらしてくれるのか非常に楽しみです。
しかし、その体験の深さと広がりは、ユーザーが何を求めるかによって大きく異なります。一般的な日常利用、ビジネスでの活用、そして創作活動という三つの視点から見ると、Apple Intelligenceの価値と限界が浮かび上がってきます。特に日本語環境においては、その差異はより顕著といえるでしょう。
わたしが(しろうととはいえ)物書きの端くれとしてApple Intelligenceと向き合うとき、言語処理の微妙なニュアンスに限界を感じることがあります。一方で、一般ユーザーとして、写真管理や画像生成を通して感じる驚きや喜びは、別の次元の価値を生み出しているといえるでしょう。このような多様な体験の交差点に、現代のテクノロジーと人間の関係性が映し出されているように感じました。
一般ユーザーとして、わたしはメール文章の校正、ニュアンスの変更などを試してみました。これはかなり有用だと思います。メールやビジネス文章においては、言語的ニュアンスの遊びや文学的魅力よりも正確性、効率性が求められます。その意味において、この機能はかなり優秀だと思いました。
また、Playgroundという画像を生成するアプリは、SNSで使うちょっとしたイラストやアイコンを作るのに最適ですね。本格的な画像編集ツールがなくてもだいたい欲しいものは生成することができます。しかも、これはオフラインでも動作しました。メッセージアプリで使われるジェン文字も同様です。LINEなど非純正アプリでの対応が待たれますね。
写真整理もかなり良くできています。検索機能が素晴らしく、画像にメタデータが付いていなくても、画像だけで検索してくれました。たとえば、「萩城」と検索すると、位置情報など付与されていない写真に「萩城跡指月公園」とタイトルまで付けて結果を示してくれました。写真のレタッチ機能もAIが使えました。写真の中にある特定のオブジェクトを消したりするのは、今回のアップデートの前からできていましたね。
一方で、文章を本格的に書くときの相棒としては、少々力不足といえるでしょう。アイディア出し、壁打ち、整理、サジェスチョンなどを腰を据えてやろうというときは、結局ChatGPTに頼らなければなりませんし、有料版でないChatGPTでは残念ながらClaudeの方が有能でした。
誤字脱字などのレベルの校正であればもちろん使えますが、文章の構成や自分の伝えたいニュアンスを理解してもらいながらサポートするというレベルになると難しいものがありました。日本語としても定型的な文章になりがちで、このあたりは他のAIもクリアできていないのでしょうがないのですが、そのままひとさまに読んでいただく文章として出すのは抵抗がありました(昨日の投稿などがその良い例です)。
文章を書く、という視点からは、現時点ではApple Intelligenceを「完璧な創作パートナー」というより「限界を理解した上で活用する補助ツール」と位置づけるのが現実的でしょう。特に日本語の微妙なニュアンスや文学的表現については、人間の感性や専門知識が依然として不可欠だと思います。
しかし、全体を通してみると、日本語というローカライズのディスアドバンテージをよく克服して頑張っていると思いました。これからAIの機能も強化されるでしょうし、AIを使うひとと使わないひととの差がさらに広がっていくことになるでしょう。たとえば、流行の言葉とか、若者の使う言葉などはAIを中心に創造され、使われていく可能性があります。いまは言葉のギャップは年齢によるものが大きいですが、今後はAIを使うか使わないかで大きな差が出てくるかもしれません。
また、将来的には文章や画像だけでなく、AirPodsとの連携で同時通訳や難聴への対応など、人間の身体的欠陥や不得意な部分をサポートしてくれるサービスに進化することが期待できます。Appleはもともとユーザー体験を大切にする企業です。最先端の技術もきっとわたしたちの生活に不可欠なものへ昇華してくれるでしょうし、それを期待しています。
コメント