Feel Physics Backyard

HoloLensの出張授業をする会社で、教材を開発しています

AIを使いこなせるのは、ほんの一部の人だけ?超有名ブロガーの記事を読んで

UnsplashAndrik Langfieldが撮影した写真

「AIを使いこなせるのは、ほんの一部の人だけなのではないか?」

という疑問というか予感のようなものを私はずっと感じていましたが、AIに関する超有名ブロガーのSimon Willisonが共通項のある話を書いていたのでご紹介します。

Simon Willisonってどんな人?(50字で)

Simon Willisonは、Django共同開発者であり、Datasetteやllmなどのオープンソースツール創作者。現在はPython財団理事。

出典(下の方です):

www.perplexity.ai

該当記事

simonw.substack.com

AI(Perplexity)に記事の内容をPREP形式でまとめさせると、こんな感じ:

【要点(Point)】 Simon Willisonの最新ニュースレター「Vibe engineering」は、AI時代のソフトウェア開発における「vibe coding」と「vibe engineering」の違いを提案・解説しています。また、OpenAI DevDay 2025、GPT-5 Proやgpt-image-1-mini、Python 3.14などの最新情報も取り上げています。

  • 効果的なAI開発には「自動テスト」「事前計画」「ドキュメント整備」「バージョン管理」「コードレビュー」「QA」「リサーチスキル」など従来の高度なエンジニアリングスキルがますます重要
  • 「vibe engineering」は“ただAI任せ”ではなく、AI活用でも責任感をもってプロダクト品質・管理体制を維持する働き方であると定義

出典:

www.perplexity.ai

具体的には?

(Geminiここから)

【具体例(Example)】

AIツールが既存の専門知識を強化する理由は、主に以下の点が挙げられます。

  • 既存の専門知識を増幅する: AIツールは、ソフトウェアエンジニアとしてのスキルと経験が豊富であればあるほど、LLM(大規模言語モデル)やコーディングエージェントからより速く、より良い結果を得ることができます。
  • 効率の向上:
    • 自動テスト: 堅牢で包括的かつ安定したテストスイートがあれば、エージェント型コーディングツールは迅速に作業を進めることができます。
    • 事前計画: 高レベルの計画から始めると、ハッキング作業がはるかにスムーズに進みます。エージェントと協力することで、まず計画を繰り返し検討し、その後コード作成をエージェントに任せることができます。
    • 包括的なドキュメント: 人間のプログラマーと同様に、LLMもコードベースの一部しかコンテキストに保持できません。関連するドキュメントを提供することで、コードを最初に読まずに他の領域のAPIを使用できます。
    • 優れたバージョン管理習慣: コーディングエージェントが変更を加える可能性がある場合、間違いを元に戻し、いつどのように変更されたかを理解することがさらに重要になります。
    • 効果的な自動化: 継続的インテグレーション、自動フォーマットとリンティング、プレビュー環境への継続的デプロイなど、エージェント型コーディングツールはこれらすべてから恩恵を受けることができます。
  • 管理と品質保証:
    • コードレビューの文化: コードレビューを迅速かつ生産的に行える場合、LLMとの連携ははるかに容易になります。
    • 非常に奇妙な形の管理: コーディングエージェントから良い結果を得ることは、人間の共同作業者から良い結果を得ることに不快なほど近いです。明確な指示を提供し、必要なコンテキストを確保し、生成されたものに対して実行可能なフィードバックを提供する必要があります。
    • 非常に優れた手動QA(品質保証): 自動テストに加えて、ソフトウェアの手動テスト、特にエッジケースの予測と深掘りに非常に優れている必要があります。
    • 強力なリサーチスキル: 特定のコーディング問題を解決する方法は何十通りもあります。最良の選択肢を見つけ、アプローチを証明することは常に重要であり、エージェントに実際のコードを書かせる上での障壁となります。
    • プレビュー環境へのデプロイ能力: エージェントが機能を構築した場合、その機能を安全にプレビューできる方法(本番環境に直接デプロイせずに)があれば、レビューがはるかに生産的になり、問題のあるものを出荷するリスクが大幅に軽減されます。
    • AIにアウトソースできるものと手動で処理する必要があるものを見極める直感: これは、モデルとツールがより効果的になるにつれて常に進化しています。LLMを効果的に活用する上で重要な部分の1つは、いつLLMを最適に適用できるかについて強い直感を維持することです。
    • 更新された見積もり感覚: プロジェクトにどれくらいの時間がかかるかを見積もることは、特に予算と戦略の決定が見積もりに基づいて行われる組織では、常にシニアエンジニアにとって最も困難で重要な部分の1つでした。AIアシストコーディングはこれをさらに困難にします。時間がかかっていたことがはるかに速くなりますが、見積もりは現在、私たち全員がまだ解明しようとしている新しい要因に依存しています。

(Geminiここまで)

どういうことかまとめると?

(Geminiここから)

AIツールが既存の専門知識を強化する理由:

  • 効率と生産性の向上: AIツールは、反復的なタスクや時間のかかるデータ処理を自動化することで、専門家がより複雑で戦略的な作業に集中できるようにします。これにより、作業のスピードと効率が大幅に向上します。
  • 意思決定の質の向上: AIは大量のデータを分析し、パターンを特定し、予測を立てることで、人間には見落としがちな洞察を提供します。これにより、専門家はより情報に基づいた、質の高い意思決定を下すことができます。
  • 能力の拡張: AIツールは、人間の認知能力や物理的な限界を超えるタスクを実行できます。例えば、高度なシミュレーション、リアルタイムのデータ監視、複雑なシステムの最適化など、専門家が単独では不可能だった領域での作業を可能にします。
  • 学習とスキルの向上: AIは、専門家が新しい情報や技術を習得するのを助け、継続的な学習を促進します。例えば、カスタマイズされたトレーニングコンテンツの提供や、特定の専門分野における最新の研究結果の要約などです。
  • エラーの削減と品質の向上: AIは、人間が犯しやすいミスを特定し、修正することで、作業の精度と品質を向上させます。これにより、最終的な成果物の信頼性が高まります。
  • 新しい視点とイノベーションの促進: AIは、従来の思考パターンにとらわれない新しいアプローチやアイデアを生成することがあります。これにより、専門家は問題解決に対する新しい視点を得て、イノベーションを促進できます。

要するに、AIツールは人間の専門知識を置き換えるのではなく、それを「増幅」し、専門家がより多くのことを、より速く、より正確に、そしてより深く達成できるようにする強力なパートナーとして機能します。

専門知識がない場合、AIツールは以下のような状況を引き起こす可能性があります。

  • 効率と生産性の低下: AIツールは反復的なタスクやデータ処理を自動化できますが、専門知識がなければ、AIの出力が不適切であったり、重要な文脈やニュアンスが考慮されていないために、かえって非効率なプロセスや誤った結果を招く可能性があります。
  • 意思決定の質の低下: AIが大量のデータを分析し、パターンを特定しても、専門知識がなければ、その洞察を誤って解釈したり、重要な要素を見落としたりするリスクが高まります。これにより、情報に基づかない、あるいは有害な意思決定につながる可能性があります。
  • 能力の限定と誤用: AIツールが提供する高度な機能は、専門知識がない場合、適切に活用されないか、あるいは誤った方法で使用される可能性があります。結果として、ツールの潜在能力を十分に引き出せず、期待される効果が得られないことがあります。
  • 表面的な学習とスキルの停滞: AIは学習を支援できますが、基礎的な専門知識がなければ、提供される情報を深く理解したり、批判的に評価したりすることが困難になります。これにより、表面的な知識しか得られず、真のスキル向上にはつながらない可能性があります。
  • エラーの見落としと品質の劣化: AIはエラーを削減する可能性がありますが、専門知識がなければ、AIの出力に含まれる誤りやバイアスを識別することができません。その結果、欠陥のある成果物を受け入れてしまい、全体の品質が低下するリスクがあります。
  • 誤った方向へのイノベーション: AIが新しい視点やアイデアを生成しても、専門知識がなければ、そのアイデアの実現可能性や関連性を適切に評価できません。これにより、無益なイノベーションや、真のブレークスルーにつながらない方向へ進んでしまう可能性があります。

要するに、AIツールは人間の専門知識を「増幅」するどころか、専門知識がない場合には、その効果が限定され、誤用や誤った判断を招くリスクがあるため、慎重な活用が求められます。

(Geminiここまで)

あなたの結論は?

AIの出力を鵜呑みにすると返って問題解決が遠回りになる可能性は低くない(誤った解釈、欠陥の見落とし、表面的な学習)。だから、AIの出力を吟味・評価することが必要であり、逆にそれができる人は大きな恩恵を受けることができる・・・ってことでしょうかね。

今後の展望

Webなどの世界にフロントエンド、バックエンドがあるように、AIを利用する場合も今後はフロントエンド、バックエンドができてくるのかもしれません。誤った解釈、欠陥の見落とし、表面的な学習を回避しつつ利便性の高い情報を提供するようなフロントエンドを構築・提供することが優れた問題解決に有効かもしれません。