AIで音楽動画を作ってみた。
「決めるのは自分」というのが私のAIリテラシーの核心だけど、今回はその実践として、一本の音楽動画を複数のAIツールと一緒に作った。工程をそのまま記録しておく。
① 曲を作る|Suno
まず音楽から始めた。テーマは「AIと人間の創造性が交差する場所」。Sunoにイメージを伝えて、何度かやり取りしながら「エーアイクリエーター」という曲ができた。
② 映像の構成を考える
曲ができたら、歌詞に合わせて20枚分の映像構成を考えた。1枚ずつ「この場面で何を見せるか」を決めていく作業。AIに丸投げするのではなく、ここは自分で決める。
③ イラストを生成する|ChatGPT/Gemini/Canva
構成が決まったら、1枚ずつイラストを生成した。キャラクターはユウナ。メインはChatGPTで生成し、ChatGPTが限界を迎えたらGeminiで代打、Canvaで描き直す、という流れで対応した。AIも疲れる。人間も疲れる。それでも手を動かし続けた。
④ 動画にする|Pika
静止画に動きをつけた。1枚ずつPikaに画像を入れて、英語でプロンプトを書いて動かす。「髪がそよぐ」「光が広がる」「文字がほどけていく」。静止画が呼吸し始める瞬間が面白かった。
⑤ 編集して仕上げる|CapCut
動画を繋いで、テキスト演出を加えて、音楽を乗せた。テキストはCapCutで完結。ロゴは使わず文字のみ。シンプルにした。
やってみてわかったこと
AIは道具だ。でも、一緒に作る感覚がある。GPTが限界を迎えたとき、Geminiが代わりに動いてくれた。Pikaが思った通りに動かないとき、何度もプロンプトを調整した。
決めるのは自分だけど、一人じゃなかった。
AIリテラシーとは、AIを使いこなすことじゃない。AIと対話しながら、自分の意図を形にしていくことだと思っている。
▶︎ 動画はこちら
あなたはどんなAIツールと一緒に作っていますか?使ってみた感想、作ってみたいもの、なんでも教えてください。

