TECH PLAY

KINTOテクノロゞヌズ

KINTOテクノロゞヌズ の技術ブログ

å…š969ä»¶

This article is the Day 1 entry of the KINTO Technologies Advent Calendar 2025:santa::christmas_tree: I'm okapi from the Mobile team in the QA Group. When creating images with AI, have you ever experienced telling the AI exactly what you want through prompts, only to have your intent misunderstood, forcing you to redo it multiple times? This time, I've created a prompt that can generate tech blog cover images in a single generation! This approach can be applied to other image creation tasks as well. Please give it a try! How to Use AI Image‑generation to Use Microsoft Copilot *Basically, any generative AI tool that supports image generation will work (e.g., ChatGPT, DALL-E, Midjourney, etc.) Prompt Modification Points There are only 4 points to modify in the prompt! Modification Points Content 1. Display Title Setting Paste your tech blog title into Display Title 2. Style Selection Choose 1 from ■Style and delete the other 2 3. Overview Setting Paste your tech blog content into ■Tech Blog Content 4. Previous Cover Image Attachment Attach your previously used cover image to the prompt Actual Prompt Used Please create a cover image for a tech blog. Please use the same format as the image used in the previous tech blog I'm attaching. ■Purpose I want to create a cover image for the following blog article. ■Display Title (Paste article title here) ■Notes ・Please ensure there are no unnatural Japanese expressions. ・Please keep the image style and layout the same as before. ・The title should be placed in the center or a prominent position ■Style (Choose one from the following 3) ・Tech feel (technical atmosphere) ・AI and machine learning style (collaboration with generative AI) ・Motion graphics style (even as a still image) ■Tech Blog Content (Paste article overview here) Previous Cover Image Attached Images Actually Created for This Article For this article, I created images in the 3 patterns mentioned above. Style Generated Image Tech feel (technical atmosphere) AI and machine learning style (collaboration with generative AI) Motion graphics style (even as a still image) Key Points of Prompt Design Explained Point Explanation 1. Minimize modification points By narrowing down the parts that need modification in the prompt to 4 points, I created a template that anyone can easily use with copy-paste. 2. Attach reference images Simply saying "with the same atmosphere as before" in words doesn't accurately convey to AI. By attaching actual images, you can share ambiguous parts that are difficult to express such as layout, color scheme, and font feel. 3. Structured instructions By clearly categorizing information into purpose, title, notes, style, and content, it becomes easier for AI to understand the priority of each element. 4. Specify elements to avoid By including negative instructions like "avoid unnatural Japanese expressions," it becomes easier to select natural Japanese. 5. Present options (style) Instead of leaving everything to AI, by making it a format where you choose from 3 styles, simply adding this option makes the prompt customizable. Not Complete (Still Not Perfect) This template can mass-produce images while maintaining reproducibility just by replacing 4 points: title, style, overview, and reference image. Actually, There Are 2 Issues Although I could generate images in one shot, upon closer inspection, the following 2 problems were found. Issue 1: Japanese Typos Despite stating "avoid unnatural Japanese expressions" in the prompt, typos occurred. Tech feel (technical atmosphere): It's written as "自動化化", where "化" is repeated The display of "開発" is distorted AI and machine learning style (collaboration with generative AI): It's written as "機械孊", where "習" is missing Issue 2: Logo Modification I wanted the reference image's logo to be reproduced, but the generative AI subtly modified the logo. At first glance they look the same, but upon closer inspection, you can see that the design has subtly changed . From a copyright and brand guidelines perspective, we want to avoid logo modifications . Tried to Improve Response to Issue 1: Japanese Typos I adjusted the prompt notes so the Japanese wouldn’t sound awkward, and tried out a few versions. Trial Changes Result ① ・Please use correct kanji and phrases for Japanese text. ・Ensure no typos or meaningless Japanese is included. ・Make Japanese text in the image natural and readable. No change - Same typos occurred ② ・Avoid unnatural Japanese expressions. ・Please review that kanji are correct before creating. All kanji disappeared - Text stopped displaying ③ Attached image with "Please correct 自動化化 in the upper left to 自動化" Not corrected - Original typo remained Response to Issue 2: Logo Modification To accurately reproduce the logo, I tried the following prompt adjustments. Additional prompt: I want the logo below to be exactly the same, so please attach the logo and use the attached file(rogo.png). As a result, a logo close to the original was created, but the angle and thickness were slightly different. Conclusion While image creation itself can be done in one shot, there were the following 2 issues: Japanese kanji expressions - Difficult to control perfectly with prompts alone Accurate logo reproduction - AI automatically modifies it Through this trial and error process, I think we can understand the characteristics and limitations of generative AI and find more effective ways to use it. Practical operational method: Leave layout, atmosphere, and background generation to the image‑generation AI (AI's strong point) Add logos later with image editing tools (humans control accurately) With this combination, I found that we can leverage the strengths of image-generation AI while ensuring a certain level of quality . This tech blog cover image was created using the above operation with the logo manually pasted. If anyone has a prompt that can accurately reproduce kanji and logos in AI-generated images, please let me know! I’ll write more articles when I find new and interesting AI applications, along with challenges and solutions.
アバタヌ
This article is the Day 1 entry for the KINTO Technologies Advent Calendar 2025 🎅🎄 Hello, I'm Yukachi (@ukcpo) from the Developer Relations Group! KINTO Technologies is doing an Advent Calendar again this year☆* This is the fifth year for our Advent Calendar! This year, we have two series on free topics with a total of 50 articles planned! @ card In the past, the Developer Relations Group would individually reach out to each division to gather contributions for the Advent Calendar, but this time, most of the participants were recruited through a Slack channel call for submissions(^^) By the way, half of the 50 total articles will be written by first-time contributors! It's wonderful to see so many members taking on the challenge, thinking "why not give it a try"! As a side note, since last year's Advent Calendar, the Developer Relations Group has been hosting a casual 30-minute consultation session every day via Slack huddle during the writing period. Being able to pop into the huddle and quickly ask questions when you're a bit stuck lowers the barrier to seeking help, so from our perspective as the hosts, it feels like a great initiative. What do you think!? We're happy to receive questions like "This is my first time writing, so is it okay to ask a basic question...?" ![スクリヌンショット](/assets/blog/authors/uka/advent/advent1.png =400x) Our manager who's great at creating an approachable atmosphere With all that said, we hope you will enjoy our company's "real" through the Advent Calendar! Updates will be posted daily on our official X account (@KINTOTech_Dev) . If any articles catch your interest, please give them a read♩ One more month left this year—let's do our best(^^)
アバタヌ
この蚘事は KINTOテクノロゞヌズ Advent Calendar 2025 の1日目の蚘事です🎅🎄 はじめに QAグルヌプのMobileチヌムのokapiです。 AIで画像を䜜成するずき、「こういう画像が欲しい」ずプロンプトで䌝えたはずなのに、なぜか意図が䌝わらず、䜕床もやり盎す矜目に 。そんな経隓、ありたせんか? そこで今回は、テックブログのカバヌ画像を「䞀床の生成」で䜜れるプロンプトを䜜成したした! この考え方は、他の画像䜜成にも応甚可胜です。ぜひ掻甚しおみおください。 䜿い方 䜿甚する画像生成AI Microsoft Copilot ※画像生成に察応した生成AIツヌルであれば、基本的にどれでもOKです䟋ChatGPT、DALL-E、Midjourneyなど プロンプトの修正箇所 プロンプトの修正箇所は、たったの4点だけ! 修正箇所 内容 1. 衚瀺タむトルの蚭定 執筆したテックブログのタむトルを「衚瀺タむトル」に貌り付ける 2. スタむルの遞択 「■スタむル」から1぀遞び、残り2぀を削陀 3. 抂芁の蚭定 執筆したテックブログの内容を「■テックブログの蚘茉内容」に貌り付ける 4. 以前のカバヌ画像添付 以前䜿っおいたカバヌ画像を「プロンプト」に添付 実際に䜿ったプロンプト テックブログのカバヌ画像を䜜成しおください。 添付しおいる前回のテックブログで䜿甚した画像ず同じ圢匏でお願いしたす。 ■目的 以䞋のブログ蚘事のカバヌ画像を䜜成したいです。 ■衚瀺タむトル ここに蚘事のタむトルを貌り付け ■泚意点 ・日本語衚珟に䞍自然な点が入らないようにしおください。 ・画像のテむストやレむアりトは前回ず同様でお願いしたす。 ・タむトルが䞭倮たたは目立぀䜍眮に配眮されおいるこず ■スタむル 䞋蚘3぀からお奜きなのを遞ぶ ・テック感技術的な雰囲気 ・AIず機械孊習系生成AIずの協働 ・モヌショングラフィック颚静止画でも ■テックブログの蚘茉内容 ここに蚘事の抂芁を貌り付け 添付した以前のカバヌ画像 本蚘事で実際に䜜った画像 本蚘事では、䞊蚘3パタヌンのスタむルで䜜りたした。 スタむル 生成された画像 テック感技術的な雰囲気 AIず機械孊習系生成AIずの協働 モヌショングラフィック颚静止画でも プロンプト蚭蚈のポむント解説 ポむント 解説 1. 修正箇所を最小限に蚭定 プロンプト内で修正が必芁な箇所を「4点に絞り蟌む」こずで、誰でも簡単にコピペで䜿いやすいテンプレヌトずしたした。 2. 参考画像の添付 蚀葉だけで「前回ず同じ雰囲気で」ず䌝えおも、AIには正確に䌝わりたせん。実際の画像を添付するこずで、レむアりト・配色・フォント感などの「䌝えるのが難しい曖昧な郚分」を共有できたす。 3. 構造化された指瀺 目的・タむトル・泚意点・スタむル・内容ず、情報を明確に分類するこずで、AIが各芁玠の優先床を理解しやすくなりたす。 4. 避けたい芁玠の明蚘 「日本語衚珟に䞍自然な点が入らないように」ずいう吊定圢の指瀺を入れるこずで、自然な日本語を遞定しやすくなりたす。 5. 遞択肢を提瀺(スタむル) AIに完党に任せるのではなく、3぀のスタむルから遞ぶ圢匏にするこずで、ここを増やすだけで、カスタマむズが可胜なプロンプトずなりたす。 おわらないただ完璧ではない 今回のテンプレヌトは「タむトル・スタむル・抂芁・参考画像」の4点を差し替えるだけで、再珟性を保ったたた量産できたす。 実は課題が2぀ありたす 䞀発で画像生成できたものの、よく芋るず以䞋の2぀の問題が発生しおいたした。 課題1: 日本語の誀字 「日本語衚珟に䞍自然な点が入らないように」ずプロンプトに蚘茉しおいるにも関わらず、誀字が発生しおいたした。 テック感(技術的な雰囲気): 「自動化 化 」ずなっおいる(「化」が重耇) 「開発」が衚瀺厩れ AIず機械孊習系(生成AIずの協働): 「機械孊」ずなっおいる(「習」が抜けおいる) 課題2: ロゎの改倉 参考画像のロゎを再珟しおほしかったのですが、生成AIによっおロゎが埮劙に改倉されおしたいたした。 䞀芋するず同じように芋えたすが、よく芋るず 现郚のデザむンが倉わっおいる こずがわかりたす。 著䜜暩やブランドガむドラむンの芳点から、 ロゎの改倉は避けたい ずころです。 改善を詊みたした 課題1ぞの察応: 日本語の誀字 プロンプトの泚意点(日本語衚珟に䞍自然な点が入らないように)をカスタマむズしお耇数パタヌンを詊しおみたした。 詊行 倉曎内容 結果 ① ・日本語の文字は、正しい挢字・語句を䜿甚しおください。 ・誀字脱字や意味䞍明な日本語が含たれないようにしおください。 ・画像内の日本語テキストは、自然で読みやすい衚珟にしおください。 倉わらず - 同様の誀字が発生 ② ・日本語衚珟に䞍自然な点が入らないようにしおください。 ・䜜成する前に挢字は正しい挢字ずなっおいるかレビュヌしおから䜜成しおください。 挢字自䜓が党郚消される - テキストが衚瀺されなくなる ③ 画像を添付の䞊、「巊䞊の『自動化化』→『自動化』に修正しおください」 修正されず - 元の誀字がそのたた残る 課題2ぞの察応: ロゎの改倉 ロゎを正確に再珟するため、以䞋のプロンプト調敎を詊したした。 远加プロンプトロゎを添付の䞊、䞋のロゎは党く同じずしたいので、添付しおいるrogo.pngを貌り付けお䜿っおください。 を远加した結果、本物に近いロゎができたすが、埮劙に角床や倪さが異なりたした。 おわりに 画像䜜成自䜓は䞀発でできるものの、以䞋の2぀の課題がありたした: 日本語の挢字衚珟 - プロンプトだけでは完璧な制埡が難しい ロゎの正確な再珟 - AIが自動的に改倉しおしたう このようなトラむ&゚ラヌを繰り返すこずで、生成AIの特性や限界を理解でき、より効果的な掻甚方法を芋぀けられるず感じおいたす。 珟実的な運甚方法: 画像生成AIに「レむアりト・雰囲気・背景」の生成を任せる(画像生成AIの埗意分野) 「ロゎ」は画像線集ツヌルで埌から远加(人間が正確に制埡) この組み合わせで、 画像生成AIの匷みを掻かし぀぀、䞀定の品質も担保できる ず分かりたした。 本テックブログカバヌ画像は、䞊蚘運甚で手動でロゎを貌り付けお䜜りたした。 もし「AIで生成した画像内の挢字やロゎを正確に再珟できるプロンプト」をお持ちの方がいらっしゃいたしたら、ぜひ教えおください! 今埌も「おもしろいAIの掻甚方法」や「぀たずいた課題ず解決策」を芋぀けたら、蚘事を執筆しおいきたす。
アバタヌ
この蚘事は KINTOテクノロゞヌズ Advent Calendar 2025 の 1 日目の蚘事です🎅🎄 こんにちは、技術広報の ゆかち(@ukcpo) です KINTOテクノロゞヌズは今幎もアドベントカレンダヌを実斜したす☆* アドベントカレンダヌ、今幎で 5 回目 今幎はフリヌテヌマで 2 シリヌズ、蚈 50 蚘事公開予定です @ card 過去アドベントカレンダヌは技術広報から各郚眲ぞ個別で声がけをしお集めおおりたしたが、 今回はSlackチャンネルでの公募でほずんどの数が集たりたした(^^) ちなみに合蚈 50 蚘事䞭半分のメンバヌが執筆デビュヌずなりたす せっかくなので・・ずチャレンゞしおくれるメンバヌが倚くお玠敵 䜙談ですが、去幎のアドベントカレンダヌからアドベントの執筆時期は技術広報メンバヌが毎日 30 分、 Slackのハドルにおゆるっず盞談䌚を開いおおりたす。 ちょっず困った時にハドルに入ればサクッず聞けちゃうの、 盞談のハヌドルが䞋がるず思うので開催しおいる偎ずしお良い取り組みな気がしおいたすがいかがでしょう " 初の執筆なので初歩的な質問なのですがいいですか・・ " などちょこちょこ盞談いただけお嬉しいです ![スクリヌンショット](/assets/blog/authors/uka/advent/advent1.png =400x) 盞談しやすい雰囲気を぀くるのが埗意なマネ そんなこんなで匊瀟の "リアル" をアドベントカレンダヌを通しお楜しんでいただけたら嬉しいです 曎新内容は 公匏X(@KINTOTech_Dev) にお毎日曎新予定です。 気になる蚘事があればぜひ目を通しおみおください♩ 今幎もあず1ヶ月、頑匵りたしょう〜(^^)
アバタヌ
AI画像線集ツヌル培底比范どれが䞀番自然 Google・OpenAI・ByteDanceの最新モデルを怜蚌【2025秋】 はじめに 2025幎10月24日金、匊瀟の倧阪テックラボにおCO-LAB Tech Night vol.4に発衚者ずしお参加しおきたした。「gpt-image-1 Gemini 2.5 Flash Image Seedream4.0の䞀貫性を怜蚌」ず題したしお、その時に発衚した内容の䞀郚をこちらでも共有させおいただきたいず思いたす。 内容ずしおはOpenAI、Google、ByteDanceが提䟛する画像生成・線集機胜を䜿っお同じお題で画像線集を行い、どの様な出力結果になるのかを怜蚌するずいったものになりたす。䞀郚以前にこちらのテックブログでも披露した内容ず重なりたすが、新たにSeedream4.0も加えお改めお出力結果を怜蚌しおおりたす。 どのツヌルがいいのかなず悩んでいる方はぜひ参考にしおいただければず思いたす。 改めお、gpt-image-1ずは こちらはOpenAIが2025幎3月に発衚し、GPT-4oに暙準搭茉された画像生成・線集が可胜な機胜です。APIなどでは「gpt-image-1」ずいうモデル名で参照されるこずもありたす。 input_fidelity ずいうパラメヌタが提䟛されおおり、「high」に蚭定するこずで線集時の被写䜓やキャラクタヌの䞀貫性を栌段に䞊がるず話題になりたした。参照機胜なし、むンペむント機胜あり。 Gemini 2.5 Flash Imageずは 通称Nano Bananaず呌ばれ被写䜓やキャラクタヌの䞀貫性を維持する胜力に特化しおチュヌニングされおいるず蚀われおいたす。発衚圓初はその性胜の高さにSNSで非垞に話題になりたした。提䟛開始は2025幎8月。参照機胜あり、むンペむント機胜なし。 Seedream4.0ずは 特城ずしおは4K出力ずいう巚倧な画像が出力可胜で、スピヌドも速いこずからプロの商甚ワヌクフロヌにも耐えうるず蚀われおいたす。こちらも被写䜓やキャラクタヌの䞀貫性の高さがSNSなどで話題に䞊りたした。2025幎9月に提䟛開始されたした。参照機胜あり、むンペむント機胜あり。 AIの匱点被写䜓やキャラクタヌの䞀貫性の維持 画像の䞀郚分だけを線集したい堎合においおも、画像党䜓が生成し盎されおしたうこずから䞀貫性を保぀こずが難しく、生成を繰り返しおいるうちに元の画像から埐々に芋た目が倉化しおしたうこずが起こりたすが、そうした「匱点」は珟圚克服され぀぀ありたす。 ずいうわけで、これら3぀のツヌルの出力画像を比范怜蚌しおみたいず思いたす。 ちなみに、Gemini2.5 Flash Image、Seedream4.0に関しおは参照機胜別の画像を参考に元の画像を倉曎する機胜を䜿甚しおおりたすが、gpt-image-1は参照機胜がないので、元の画像に被写䜓を重ねるずいった方法で線集を行なっおおりたす。ですので、プロンプトはなるべく同じ内容にし぀぀もgpt-image-1は若干違う内容で行いたした。 たた、平均10枚前埌を出力しおその䞭で最も良奜な結果を瀺した出力を掲茉しおいたす。 お題01:空癜のラベルに文字を蚘茉する 空癜のラベルに商品名を蚘茉するずいうお題です。 ![ボトル](/assets/blog/authors/aoshima/image-edit-evaluation/01/sample01.jpg =50%x) 出力結果の比范 gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/01/gpt.png =50%x) 文字の倪さにばら぀きがありたすが、砎綻は芋られたせんでした。党䜓的に䞀貫性が保たれおいたす。 Gemini2.5 Flash Image ![Gemini2.5 Flash Image](/assets/blog/authors/aoshima/image-edit-evaluation/01/gemini.png =50%x) 文字の倪さ、倧きさも問題なく、特に砎綻は芋られたせんでした。党䜓的に䞀貫性が保たれおいたす。 Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/01/seedream.png =50%x) 文字の倪さ、倧きさも問題なく、特に砎綻は芋られたせんでした。党䜓的に䞀貫性が保たれおいたす。ちなみにこちらのみセリフ䜓ですね。 お題02:透明な花瓶远加 右䞋の空間に透明な花瓶を远加しおもらうずいうお題です。 ![ボトル](/assets/blog/authors/aoshima/image-edit-evaluation/02/sample01.jpg =50%x) 出力結果の比范 gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/02/gpt.png =50%x) 花瓶の配眮、角床、光の透過具合など特に違和感なく出力されおいたす。菜の花ず花瓶に぀いおも䞀貫性が保たれおいたす。 Gemini2.5 Flash Image ![Gemini2.5 Flash Image](/assets/blog/authors/aoshima/image-edit-evaluation/02/gemini.png =50%x) こちらも花瓶の配眮、角床、光の透過具合など特に違和感なく出力されおいたす。菜の花ず花瓶に぀いおはこちらも䞀貫性が保たれおいたす。 Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/02/seedream.png =50%x) 花瓶の配眮はちょっず遠くになっおしたい花瓶の䞀郚が切れおしたっおいたすが、角床、光の透過具合など特に違和感なく出力されおいたす。菜の花ず花瓶に぀いおはこちらも䞀貫性が保たれおいたす。 お題03:家族を車の埌郚座垭に座らせる 家族写真に映っおいる人々を車の埌郚座垭に座っおいる様に線集するずいうお題です。 出力結果の比范 gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/03/gpt.png =50%x) 顔の䞀貫性は維持されおいないようです。そしお党䜓的にやや黄色味がかっおしたっおいたす。ただ人物ずシヌトの倧きさのバランスはいいず思いたす。 Gemini2.5 Flash Image ![Gemini2.5 Flash Image](/assets/blog/authors/aoshima/image-edit-evaluation/03/gemini.png =50%x) こちら、12枚生成したしたが砎綻なく出力されるこずはありたせんでした。たたシヌトに察しお人物が小さいです。ただし顔の䞀貫性に぀いおはかなり維持されおいたす。 Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/03/seedream.png =50%x) こちらはシヌトに察しお人物がやや小さい気がしたす。しかし顔の䞀貫性はたあたあ保たれおいる気がしたす。 お題04:男女を゜ファに座らせる 別々の画像の男女を仲良く゜ファに座っおいる様に線集するずいうお題です。 出力結果の比范 gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/04/gpt.png =50%x) 構図が被写䜓により過ぎおいたす。そしお今回も顔の䞀貫性は保たれおいないようです。 Gemini2.5 Flash Image ![Gemini2.5 Flash Image](/assets/blog/authors/aoshima/image-edit-evaluation/04/gemini.png =50%x) 䞀芋よさそうなのですが、゜ファに察しお人物が小さいようです。 Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/04/seedream.png =50%x) こちらは構図、゜ファず人物の倧きさのバランス、顔の䞀貫性、いずれも問題ないようです。 お題05:スヌツ姿の男性をバむクに跚らせる スヌツ姿の男性をバむクに跚らせるずいうお題です。 出力結果の比范 gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/05/gpt.png =50%x) たたもや構図が被写䜓により過ぎおいたす。そしお顔のAI感が匷いです。バむクのディテヌルに察する䞀貫性は䞀郚維持されおいない様です。 Gemini2.5 Flash Image ![Gemini2.5 Flash Image](/assets/blog/authors/aoshima/image-edit-evaluation/05/gemini.png =50%x) 党䜓的なバランスが良いです。たた人物の顔、スヌツの柄、バむクのディテヌルに察しお䞀貫性が維持されおいたす。 Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/05/seedream.png =50%x) 倕焌けが匷く出おしたっおいたす。そしお人物がバむクに察しおやや倧きいですね。 お題06:雑誌のタむトルを日本語ぞ倉曎する 雑誌のタむトルを日本語ぞ倉曎するずいうお題です。 ![雑誌を持っおいる女性](/assets/blog/authors/aoshima/image-edit-evaluation/06/sample01.jpg =50%x) 出力結果の比范 gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/06/gpt.png =50%x) タむトルに関しおは挢字もひらがなやや倪いも問題ないかなずいったずころでしょうか。タむトル以倖の现かい郚分は完党に砎綻しおいたす。そしお党䜓的な色味が黄色っぜくなっおいる感じがしたす。 Gemini2.5 Flash Image ![Gemini2.5 Flash Image](/assets/blog/authors/aoshima/image-edit-evaluation/06/gemini.png =50%x) こちらはタむトル、现かい芋出しは党く日本語になっおおりたせんが、それ以倖の䞀貫性は完党に維持されおいるようです。 Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/06/seedream.png =50%x) こちらは日本語は成立しおいたすが、ひらがなが倪字になっおしたっおいたす。现かい文字も他ず同じく日本語の䜓おいをなしおいたせん。たた、腕時蚈もなくなっおしたっおいたすし、袖も短くなっおしたっおおりたす。 お題07:真䞊からのアングルに倉曎 真暪から撮圱された花瓶に入ったひたわりを真䞊からのアングルに倉曎するずいうお題です。 ![ひたわり](/assets/blog/authors/aoshima/image-edit-evaluation/07/sample01.jpg =50%x) 出力結果の比范 gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/07/gpt.png =50%x) アングルは真䞊からになっおいたすが、花が䞍自然に敎列されおしたっおいたす。 Gemini2.5 Flash Image ![Gemini2.5 Flash Image](/assets/blog/authors/aoshima/image-edit-evaluation/07/gemini.png =50%x) アングルはやや斜め䞊からですが、花の配眮や高さなど元の画像からの䞀貫性が非垞に高く感じたす。 Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/07/seedream.png =50%x) こちらも同じくアングルはやや斜め䞊からですが、花の配眮など䞀貫性が高く感じたす。ただし、䞭倮の奥にある花の高さは明らかに違っおしたっおいるようです。 お題08:男性の髪型をむラストに合わせお倉曎 男性の髪型をむラストの髪型に合わせお倉曎し、4枚䞊べお出力するずいうお題です。 ![男性](/assets/blog/authors/aoshima/image-edit-evaluation/08/sample01.jpg =50%x) 出力結果の比范 gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/08/gpt.png =50%x) 䞀芋悪くないのですが、元の画像ず比べるず顔の皮膚の感じがのっぺりずしおおり、ほくろなどが消えおしたっおいたす。 Gemini2.5 Flash Image ![Gemini2.5 Flash Image](/assets/blog/authors/aoshima/image-edit-evaluation/08/gemini.png =50%x) 党おではないですがほくろなどが維持されおいたりなど、顔の䞀貫性は高く感じたすが、色が倉わっおしたっおいるなど髪型の再珟床は䜎く感じたす。 Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/08/seedream.png =50%x) 今たで高い䞀貫性を芋せおきたSeedream4.0ですが、髪型に関しおは完党に指瀺に背く結果ずなっおしたっおいるようです。出力結果の䞭には髪型が長髪化しおしたうなど、指瀺から倧きく倖れるものも芋られたした。 この様に比范怜蚌を行なっおみるず、それぞれの癖などが分かっおくるので非垞に興味深いず感じたした。ただしこの様に各瀟ごずのバラツキや傟向など今は顕著に芋えおおりたすが、すぐにその差も分からないくらいに粟床を䞊げおくるのではないかず思いたす。 最埌に安党な画像生成・線集に぀いお この様に画像線集を簡単に行える様になっおきたしたが、簡単であるがゆえに意図せずずも間違った䜿い方をしおしたう可胜性がありたす。 著䜜暩を䟵害する様なアりトプットをしない 生成の過皋で著䜜暩を䟵害する恐れのあるものを参照しない こういったこずはもちろんのこず、 未成幎者など瀟䌚的立堎の匱い人々に配慮する 差別や䟮蟱ずいった暎力から他者の尊厳を守る ディヌプフェむクなどによる誀情報の拡散をしない 画像生成・線集を行う際には、この様な配慮も忘れないこずを心がけたいず思っおおりたす。
アバタヌ
AI Image Editing Tool Comparison! Which is the Most Realistic Image Generator through Testing the Latest Models: Google, OpenAI, and ByteDance? [Fall 2025] Introduction On Friday, October 24, 2025, I participated as a presenter at CO-LAB Tech Night vol.4 held at our Osaka Tech Lab. At this event, I presented on the topic of testing the consistency of gpt-image-1, Gemini 2.5 Flash Image, and Seedream 4.0. Since Google recently released Nano Banana pro, I have updated some of the content and would like to share it here as well. The content involves using image generation and editing features provided by OpenAI, Google, and ByteDance to perform image editing on the same tasks and examine what kind of output results we get. If you are wondering which tool is the most suitable for you, I hope this will be helpful. What is gpt-image-1? The model is released in March 2025 and integrated as standard in GPT-4o with a feature capable of image generation and editing. In APIs and other contexts, it is sometimes called by its model name gpt-image-1. A parameter called input_fidelity is enabled. Setting the parameter to high helps significantly improve the consistency of subjects and characters in image editing, which gathered attention. The model has no reference feature but inpainting feature. What is Gemini 3 Pro Image? Commonly known as Nano Banana, it is said to be tuned specifically to maintain consistency of subjects and characters. At its launch, the model with high performance become a hot topic on social media. Upgraded to 3 Pro, the model’s text generation feature is apparently enhanced. Nano Banana was released in August 2025 with reference feature support but without inpainting. What is Seedream 4.0? The model includes a feature to output massive 4K images with fast speed, as well as a capability of handling professional commercial workflows. Particularly, the model’s high subject and character consistency also became a topic on social media. The model was released in September 2025 with both reference and inpainting feature support. AI's Weakness: Maintaining the Subject and Character Consistency When you want to edit only part of an image, AI models often regenerate the entire image, which makes it difficult to maintain the image consistency. Iterated generation by AI models causes gradual changes in the original image; however, such weakness is currently being overcome. So, I would like to compare and examine the output images from these three tools. By the way, for Gemini 3 Pro Image and Seedream 4.0, I used the reference feature (a function that modifies the original image by referencing another image). On the other hand, for gpt-image-1, which does not have a reference feature, I performed editing by overlaying subjects onto the original image. Therefore, while I tried to keep the prompts for all the tools as similar as possible, I applied the ones with slightly different content for gpt-image-1. In this comparison experiment, I generated an average of around 10 images and am posting the output that showed the best results among them. Task 01: Writing Texts on a Blank Label The task is to write a product name on a blank label on a bottle in the following image. ![ボトル](/assets/blog/authors/aoshima/image-edit-evaluation/01/sample01.jpg =50%x) Comparison of Output Results gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/01/gpt.png =50%x) The text is somewhat distorted, but no major breakdown was observed. Overall consistency is maintained. Gemini 3 Pro Image ![Gemini 3 Pro Image](/assets/blog/authors/aoshima/image-edit-evaluation/01/gemini.jpg =50%x) The thickness and size of the text are fine, and no particular breakdown was observed. Overall consistency is maintained. Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/01/seedream.jpg =50%x) The thickness and size of the text are fine, and no particular breakdown was observed. Overall consistency is maintained. Task 02: Change to a Top-Down Angle The task is to change an image of sunflowers in a vase photographed from the side to a top-down angle. ![ひたわり](/assets/blog/authors/aoshima/image-edit-evaluation/02/sample01.jpg =50%x) Comparison of Output Results gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/02/gpt.png =50%x) The angle is from directly above the sunflowers. Their petals somehow feel artificial. Gemini 3 Pro Image ![Gemini 3 Pro Image](/assets/blog/authors/aoshima/image-edit-evaluation/02/gemini.jpg =50%x) The angle is from directly above the sunflowers, but they may look slightly small. The texture of the petals looks realistic. Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/02/seedream.jpg =50%x) The image is ended up being slightly from above at an angle, but the texture of the flowers and the detail where just a sunflower on the right side has changed direction have been reproduced. Task 03: Seat a Family in the Back Seat of a Vehicle The task is to edit the people in a family photo as if they are seated in the back seat of a vehicle. Comparison of Output Results gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/03/gpt.png =50%x) Facial consistency does not appear to be maintained. And the overall color of the image appeared somewhat yellowish. However, the balance between the people and seat sizes seems good. Gemini 3 Pro Image ![Gemini 3 Pro Image](/assets/blog/authors/aoshima/image-edit-evaluation/03/gemini.png =50%x) The balance, color tone, and other aspects appear to be output with quite high quality. Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/03/seedream.jpg =50%x) The color tone came out dark, but I felt the consistency of the people and the balance were quite high quality. Task 04: Seat a Man and Woman on a Sofa The task is to edit a man and woman from separate images to appear sitting together on a sofa. Comparison of Output Results gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/04/gpt.png =50%x) The composition is too close to the subjects, and the people feel a bit large in comparison to the sofa. Facial consistency does not appear to be maintained. Gemini 3 Pro Image ![Gemini 3 Pro Image](/assets/blog/authors/aoshima/image-edit-evaluation/04/gemini.jpg =50%x) At first glance it looks good, but the people are small in comparison to the sofa. Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/04/seedream.jpg =50%x) There is seemingly no problem with all the composition, balance between sofa and people sizes, and facial consistency. Task 05: Convert English Title on a Magazine to Japanese The task is to convert an English magazine title to Japanese. ![雑誌を持っおいる女性](/assets/blog/authors/aoshima/image-edit-evaluation/05/sample01.jpg =50%x) Comparison of Output Results gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/05/gpt.png =50%x) The title font has become quite bold, but it does not appear to be broken. The cover page photo has also changed to the one showing a castle, giving it a Japanese feel. Gemini 3 Pro Image ![Gemini 3 Pro Image](/assets/blog/authors/aoshima/image-edit-evaluation/05/gemini.jpg =50%x) Since the model’s text generation feature was enhanced, the output is quite good. The magazine in the image even includes the Japanese subtitle below the title. Moreover, the subtitle clearly makes sense as Japanese. The cover shows cherry blossoms in full bloom alongside red autumn leaves, which is an odd seasonal mismatch. Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/05/seedream.jpg =50%x) The title font is not particularly broken, but unnecessary punctuation is inserted. Small text in the cover has broken down. The photo shows a harbor town-like location with cherry blossoms, giving it a Japanese feel. Task 06: Change a Man's Hairstyle Based on an Illustration The task is to restyle a man's hair to match three different hairstyles from an illustration, outputting the results side by side. Comparison of Output Results gpt-image-1 ![gpt-image-1](/assets/blog/authors/aoshima/image-edit-evaluation/06/gpt.png =50%x) There seems that subjects tend to be output large. Facial consistency does not appear to be maintained. Also, the long-permed hairstyle could not be reproduced. Gemini 3 Pro Image ![Gemini 3 Pro Image](/assets/blog/authors/aoshima/image-edit-evaluation/06/gemini.jpg =50%x) The face with long permed hair leans slightly toward an illustrated look, but overall the hairstyles from the illustration have been reproduced well. Seedream4.0 ![Seedream4.0](/assets/blog/authors/aoshima/image-edit-evaluation/06/seedream.jpg =50%x) Seedream 4.0, which had shown high consistency so far, did not produce results according to instructions when it came to hairstyles. Conducting this kind of comparative examination reveals the quirks of each, which I found very interesting. While the differences and tendencies of each model are now clearly visible, I think the models will quickly improve their accuracy to the level where these differences become indistinguishable. Finally, about Safe Image Generation and Editing As image editing becomes increasingly easy, the risk of unintentional misuse also grows. To this end, we should NOT: Produce output that infringes copyright; or Reference things that may infringe copyright in the generation process. Of course, as well as these, we should also: Show consideration for minors and others in socially vulnerable positions; Protect the dignity of others from violence such as discrimination and insult; or Not spread misinformation through deepfakes. I would like to take the above points in consideration when performing image generation and editing.
アバタヌ
Introduction Hello, I'm Nomura, who joined in August 2025! In this article, I interviewed four new members who joined KINTO Technologies Corporation (KTC) in August 2025 about their impressions right after joining to compile their responses. I hope this provides useful information for those interested in KTC, especially those considering joining us, as well as serving as a reflection for the members who participated. I would be happy if you could get interested in our company through learning from the article about the corporate culture, atmosphere, and candid voices of its new employees. Hikaru Matsukura - MatsuIchi Self-introduction I'm in the Mobile App Development Group, where I'm responsible for developing the backend that mobile apps access. I mainly work in the domain of Dealer Digital Transformation (DX) projects. How is your team structured? We work as one team with members from the Digital Transformation Development Group, Digital Transformation Solution Group, and Digital Transformation Engagements Group to deliver products to accelerate DX. What was your first impression of KTC when you joined it? Were there any surprises? Being able to have discussions with the Cloud Infrastructure Team about infrastructure matters is extremely helpful and encouraging. What is the atmosphere like on-site? Everyone proactively takes initiative and moves forward—it's amazing! I’ll do my best, not to falling behind. How did you feel about writing a blog post? I thought like, "So it's finally my turn!" (lol) I'd like to continue to share information if I get any chance to post my blogs in the future. Question from Yusuke Miwa to Hikaru Matsukura Are you a cat person or a dog person? I like both! My wife's family has a cat, so I probably have more opportunities to interact with cats. Hiroki Nomura Self-introduction I belong to the AI First Group, which is a cross-functional organization. I’m based in Nagoya. In my previous job, I worked as a system integrator (SIer) for an automotive company, particularly focusing on applying generative AI to automotive control areas. How is your team structured? We do everything AI-related. As a cross-functional group, we also develop systems and tools related to generative AI. We're involved in developing and supporting KINTO products and internal generative AI apps, as well as Toyota Group projects. Additionally, using the knowledge shared across the whole company, we are providing generative AI training externally. Last month, we held the Vibe Coding Week event, and we've been implementing internal initiatives to master generative AI. What was your first impression of KTC when you joined it? Were there any surprises? Unlike the atmosphere of traditional Japanese companies, here you continuously think for yourself and keeping up a cycle of input and output. In terms of tools used in KTC, I was surprised by the difference between Teams culture and Slack culture! I really appreciate the culture where everyone actively posts. What is the atmosphere like on-site?? We focus on achieving what we want to accomplish by any means necessary, rather than thinking about the means first! How did you feel about writing a blog post? This is a culture that was not at my previous job. I personally write technical blogs, so I feel comfortable with it. By producing output, I can objectively reflect on my own activities, so it's very positive! Question from Hikaru Matsukura to Hiroki Nomura What do you recommend us as a local specialty food in Nagoya? I used to frequently go to Nan House, a buffet-style Indian restaurant in Higashiura-cho (that is currently closed, though). I like hitsumabushi. It's so expensive that I can't enjoy it often, though... There's Sumiyaki Una Fuji Meieki Branch on the 1st floor of the building where our office is located. Please try it when you come to Nagoya! Yusuke Miwa - Y.M Self-introduction I belong to the New Vehicle Subscriptions Product Management Group, working at the Muromachi office. In my previous job, I worked as a PM to develop a furusato nozei (hometown tax) website, planning and driving projects. How is your team structured? Our group has 7 members, and I communicate with developers and people from different divisions. In practice, I manage QCD for new vehicle subscription development projects and other miscellaneous projects to complete them. What was your first impression of KTC when you joined it? Were there any surprises? Communication among engineers in KTC is more active than at my previous company. Not only do they publish tech blogs, but they also actively communicate with others during project development and requirements confirmation, which is very helpful! What is the atmosphere like on-site? Rather than developing products simply by following requirements, we thoroughly understand the product users’ intent behind their requests and continuously try to define the requirements and build the structures to produce maximum effect. How did you feel about writing a blog post? This is my first experience to share information externally, so I'm nervous (lol). Question from Hiroki Nomura to Yusuke Miwa What are you most into these days, whether for work or personal life? On the personal side, I'm into watching baseball! I used to go to baseball games only a few times a year, but this year I'm going once or twice a month! Closing Thanks to everyone for sharing their impressions after joining KTC! KINTO Technologies is constantly welcoming new members! We'll continue to feature more blog posts to introduce new members from various divisions going forward, so we hope you to look forward to them. And we are still recruiting members to work with us in various divisions and positions! Please check here for details!
アバタヌ
はじめに こんにちは、2025幎8月入瀟の野村です 本蚘事では、KINTO テクノロゞヌズ株匏䌚瀟以䞋、KTCに2025幎8月に入瀟した新メンバヌ4名の入瀟盎埌の感想をお䌺いし、たずめたした。 KTCに興味のある方、特に入瀟を怜蚎されおいる方や、今回参加したメンバヌの振り返りずしお、有益な情報をお届けしたす。 KTCの瀟颚や雰囲気、新入瀟員の生の声を通じお、圓瀟の魅力を感じおいただければ幞いです。 束倉䞀光 (Hikaru Matsukura) - MatsuIchi 自己玹介 モバむルアプリ開発Gにおモバむルアプリがアクセスするバック゚ンドの開発を担圓しおいたす。 䞻に販売店DXの領域で掻動しおいたす。 所属チヌムの䜓制は DX開発G、DX゜リュヌションG、DX゚ンゲヌゞメントGの方々ずOneTeamでDXプロダクトの提䟛に取り組んでいたす。 KTCぞ入瀟したずきの第䞀印象ギャップはあった クラりドむンフラチヌムにむンフラ呚りの盞談ができるのはすごく頌りになり有難いです。 珟堎の雰囲気はどんな感じ みなさん䞻䜓的にどんどん動いおいおすごい眮いおいかれないように頑匵りたす。 ブログを曞くこずになっおどう思った ぀いに来たか、思いたした笑 今埌も機䌚があれば情報発信しおいきたいです。 䞉茪 優介さん ⇒ 束倉䞀光さんぞの質問 猫掟ですか犬掟ですか どっちも奜きです 劻の実家で猫飌っおるので、猫ず觊れ合う機䌚の方が倚いかも。 野村 宏暹(Hiroki Nomura) 自己玹介 AIファヌストGずいう暪䞲組織に所属しおいたす。私の拠点は名叀屋です。 前職は自動車䌚瀟のSIerずしお、ずくに自動車制埡領域ぞの生成AI掻甚に取り組んでいたした。 所属チヌムの䜓制は AIに関わるこずならなんでもやりたす。 暪ぐし組織ずしお、生成AIに関する仕組みやツヌルの敎備もしおいたす。 KINTOのプロダクトや瀟内生成AIアプリの開発やサポヌト、トペタグルヌプの案件にも携わっおいたすね。 さらに、暪䞲組織ずしお溜たったナレッゞをもずに、瀟倖に向けお生成AI研修もしおいたす。 先月はVibeCodingWeekも実斜しおおり、生成AIを䜿いこなすための瀟内斜策も実斜しおいたした。 KTCぞ入瀟したずきの第䞀印象ギャップはあった JTCおきな䌚瀟の雰囲気ずは逆で、自ら考えおInputずOutputをし続けおいくずころです。 ツヌル芳点でいうず、Teams文化ずSlack文化はここたで違うのかず驚きたした。皆さんが積極的に投皿する文化がずおもいいなず感じおたす。 珟堎の雰囲気はどんな感じ 手段先行になるのではなく、やりたいこずを実珟できるための手段は問わない ブログを曞くこずになっおどう思った 前職ではなかった文化です。個人的に技術ブログを曞いおいるので抵抗はないですね。 Outputをするこずで、客芳的に自身の掻動の振り返りができるので、ずおもPositiveです 束倉䞀光さん ⇒ 野村 宏暹さんぞの質問 おすすめ名叀屋めしはなんですか 自分は昔今はもうなくなっちゃいたしたが東浊町にあったナンハりスの食べ攟題によく行っおたした。 私はひ぀たぶしが奜きですねヌ。高いので頻床高く食べれるものではないですが... オフィスの1Fに「炭焌 うな富士 名駅店」がありたすね。名叀屋にいらしたずきにはぜひ 䞉茪 優介(Yusuke Miwa) - Y.M 自己玹介 新車サブスク開発プロダクトマネゞメントGに所属しおたす。宀町オフィスで勀務です。 前職では、ふるさず玍皎サむトの開発PMずしおプロゞェクト蚈画・掚進を行なっおおりたした。 所属チヌムの䜓制は グルヌプずしおは7名ですが、開発者や様々な郚眲の方ずコミュニケヌションを取っおたす。 実務ずしおは、新車サブスク開発におけるプロゞェクト案件やハギレ案件のQCD管理を行い、プロゞェクトを完遂させる動きをしおたす。 KTCぞ入瀟したずきの第䞀印象ギャップはあった ゚ンゞニアの皆さんのコミュニケヌションが以前所属しおいた䌚瀟よりも掻発で、テックブログの発信はもちろん、プロゞェクト開発や芁件確認の堎面でも積極的にコミュニケヌションを取っおくださるので、ずおも助かっおいたす 珟堎の雰囲気はどんな感じ 芁求を鵜呑みにしお開発するのではなく、芁求意図をしっかり理解しお最倧効果が出るような芁件定矩ず䜓制構築を日々詊行錯誀しおたす。 ブログを曞くこずになっおどう思った 倖郚発信するずいう経隓は初めおなので、緊匵しおたすw 野村 宏暹さん ⇒ 䞉茪 優介さんぞの質問 仕事でもプラむベヌトでも、䞀番ハマっおいるこずは プラむベヌトですが、野球芳戊にハマっおたす毎幎数回皋床しか行っおなかったのですが、今幎は月に1~2回の頻床で行っおたす さいごに みなさた、入瀟埌の感想を教えおくださり、ありがずうございたした KINTOテクノロゞヌズでは日々、新たなメンバヌが増えおいたす 今埌もいろんな郚眲のいろんな方々の入瀟゚ントリが増えおいきたすので、楜しみにしおいただけたしたら幞いです。 そしお、KINTO テクノロゞヌズでは、ただたださたざたな郚眲・職皮で䞀緒に働ける仲間を募集しおいたす 詳しくは こちら からご確認ください
アバタヌ
Hello, I'm Uehara, a backend engineer in the FACTORY E-commerce Development Group at KINTO Technologies. We will be participating in Techbook Fest 19 as the KINTO Technologies Writing Club formed by volunteer engineers from KINTO Technologies. ※This activity is conducted by volunteers for the purpose of sharing technical knowledge and is not an official corporate activity. What is Techbook Fest? Techbook Fest is a doujinshi convention exclusively for technical books. It will be held for 16 days from November 15 (Sat) to November 30 (Sun), 2025, both in an online marketplace and at a physical venue. The offline event will be held on November 16 (Sun) at Ikebukuro Sunshine City Exhibition Hall D. It will bring together knowledge from a wide range of technical fields and provide a space where participants with a keen interest in technology can interact directly. At the physical venue, you can pick up books and talk directly with the authors, while at the online venue, you can access technical books from anywhere in Japan. The appeal lies in gaining access to valuable knowledge available only here, including specialized technologies and practical know‑how that are seldom addressed in commercial publishing. For more details, please check the official Techbook Fest website. https://techbookfest.org/event/tbf19 New Book to be Distributed For distribution at Techbook Fest 19, volunteers from within KINTO Technologies formed the KINTO Technologies Writing Club and wrote the technical book "TECH BOOK By KINTO Technologies Vol.01." It is an omnibus-format book that compiles chapters written by each author on their respective themes. ![衚玙](/assets/blog/authors/uehara/2025-10-24-techbookfest19-announcement/cover.webp =300x) Cover of the new book "TECH BOOK By KINTO Technologies Vol.01." This book covers a wide range of topics, from testing methods in Go language to AWS security, generative AI, infrastructure automation, mobile development, and organizational building. Chapter 1: Best Practices for Unit Testing with Go Chapter 2: Why Using IAM Roles Provides Higher Security Than IAM Users Chapter 3: Let's Implement Responsible Generative AI Using AWS Chapter 4: Practical Frontend Error Monitoring Learned from New Relic Implementation Chapter 5: Past, Present, and Future of Cloud Infrastructure Automation and Integrated Management Using Infrastructure as Code Chapter 6: Getting Started with iOS App Development Chapter 7: Toyota Group's In-House Development Organization Pursuing Collaboration with AI Through Both Culture and Technology Chapter 8: Creating an Autonomous Organization with the Power of Facilitation Chapter 9: Let's Create an MCP Server with Azure Functions Chapter 10: Balancing AWS Governance and Agility Chapter 11: Making AWS Operations Easier Using Generative AI Chapter 12: Recommendations for Home K8s Starting (About) Two Laps Behind Chapter 13: Let's Try a Hands-On Session with AWS IoT Greengrass Using a Sample Application We will distribute this book, packed with content, for free ! Recommended For Those interested in development using Go language or AWS Those who want to learn about mobile app development or infrastructure automation Those who want to know practical applications of generative AI Those interested in organizational building or team management Those interested in in-house development within the Toyota Group We hope that the technical challenges and solutions covered in each chapter will serve as a reference for those facing similar problems. Venue We will exhibit at both physical and online venues. Physical Venue Date and Time: Sunday, November 16, 2025 Location: Ikebukuro Sunshine City Exhibition Hall D (Cultural Center Building 2F) Booth Number: O15 Floor map at Techbook Fest 19. The KINTO Technologies Writing Club booth is "お15" Online Venue Saturday, November 15 - Sunday, November 30, 2025 Electronic version PDF will be distributed at the online marketplace Conclusion If you visit the Techbook Fest 19 physical venue, please come see us at booth お15. For those who live far away and cannot attend in person, we plan to publish the electronic version on the Techbook Fest online marketplace, so please take a look!
アバタヌ
こんにちは、KINTOテクノロゞヌズのFACTORY EC開発グルヌプでバック゚ンド゚ンゞニアをやっおいる䞊原です。 技術曞兞19に、KINTOテクノロゞヌズの有志゚ンゞニアによるサヌクル「KINTOテクノロゞヌズ執筆郚」ずしお参加したす。 ※本掻動は有志による技術知識の共有を目的ずしおおり、䌁業の公匏掻動ではありたせん。 技術曞兞ずは 技術曞兞は、技術曞限定の同人誌即売䌚むベントです。2025幎11月15日(土)から11月30日(日)の16日間、オンラむンマヌケットずオフラむン䌚堎で開催されたす。 オフラむン䌚堎は11月16日(日)に池袋サンシャむンシティ 展瀺ホヌルDで開催されたす。幅広い技術分野の知芋が集たり、技術に察しおアンテナが高い参加者同士が盎接亀流できる堎ずなっおいたす。 オフラむン䌚堎では実際に著者ず察話しながら本を手に取るこずができ、オンラむン䌚堎では党囜どこからでも技術曞を入手できたす。 商業出版では扱われにくい専門的な技術や実践的なノりハりなど、ここでしか埗られない貎重な知芋に出䌚えるのが魅力です。 詳现は技術曞兞の公匏サむトでもご確認いただけたす。 https://techbookfest.org/event/tbf19 今回頒垃する新曞 技術曞兞19での頒垃に向けKINTOテクノロゞヌズの瀟内有志でKINTOテクノロゞヌズ執筆郚を結成し、技術本「TECH BOOK By KINTO Technologies Vol.01」を執筆したした。 それぞれの著者がそれぞれのテヌマで曞き䞊げた章たちを䞀冊にたずめた、オムニバス圢匏の本ずなっおいたす。 ![衚玙](/assets/blog/authors/uehara/2025-10-24-techbookfest19-announcement/cover.webp =300x) 新曞「TECH BOOK By KINTO Technologies Vol.01」の衚玙。 本曞では、Go蚀語でのテスト手法から、AWSセキュリティ、生成AI、むンフラ自動化、モバむル開発、組織づくりたで、幅広いテヌマを扱っおいたす。 第1ç«  Goで孊ぶ単䜓テストのベストプラクティス 第2ç«  なぜIAM Roleを䜿うこずが、IAMナヌザよりセキュリティが高いのか 第3ç«  「責任ある生成AI」をAWSを䜿っお実装しおみよう 第4ç«  New Relic導入から孊ぶフロント゚ンド゚ラヌ監芖の実践 第5ç«  Infrastructure as Codeを利甚したクラりドむンフラ自動化・統合管理の過去・珟圚・未来 第6ç«  今から始めるiOSアプリ開発 第7ç«  トペタグルヌプ内補開発組織が远求する、カルチャヌ×技術䞡茪によるAIずの協業 第8ç«  ファシリテヌションの力で自埋した組織を䜜りたい 第9ç«  AzureFunctionsでMCPサヌバヌを䜜っおみよう 第10ç«  AWSのガバナンスずアゞリティの䞡立 第11ç«  AWSの運甚を生成AIを掻甚しお楜にする 第12ç«  (倚分)呚遅れくらいから始めるおうちK8sのススメ 第13ç«  AWS IoT Greengrassをサンプルアプリを䜿っおハンズオンしおみよう たっぷり内容が詰たった本曞を 無料 で配垃したす こんな方におすすめ Go蚀語やAWSを䜿った開発に興味がある方 モバむルアプリ開発やむンフラ自動化に぀いお孊びたい方 生成AIの実践的な掻甚方法を知りたい方 組織づくりやチヌムマネゞメントに関心がある方 トペタグルヌプの内補開発に興味がある方 各章で扱う技術的な課題ず解決方法が、同じような問題に盎面しおいる方々の参考になれば幞いです。 䌚堎 オフラむン・オンラむン䌚堎ずもに出展したす。 オフラむン䌚堎 開催日時: 2025幎11月16日(日) 堎所: 池袋サンシャむンシティ 展瀺ホヌルD文化䌚通ビル2F ブヌス番号: お15 技術曞兞19でのフロアマップ。KINTOテクノロゞヌズ執筆郚のブヌスは「お15」になりたす オンラむン䌚堎 2025幎11月15日(土)11月30日(日) オンラむンマヌケットにお電子版pdfが配垃される おわりに 技術曞兞19 オフラむン䌚堎ぞお越しの際は、ぜひブヌス「お15」でお䌚いしたしょう。 遠方にいお珟地に行けない方も、電子版を技術曞兞オンラむンマヌケットで公開予定ですので、ぜひご芧ください
アバタヌ
はじめに こんにちはKINTO テクノロゞヌズ、クラりドセキュリティ G の倧高です。 普段は、クラりド環境のガヌドレヌル敎備ず CSPM や脅嚁怜知を利甚した監芖やカむれン掻動に取り組んでいたす。 私たちのグルヌプでは、日々の業務の䞀環ずしお、 Amazon GuardDuty が怜知した脅嚁に関しお、ログの詳现分析を行い、正垞な操䜜であるかを確認する堎面がありたす。このログ分析の効率化を目指しお、Amazon Q Developer を掻甚した怜蚌をしおみたした。 Amazon GuardDuty の脅嚁怜知の察応 KINTO テクノロゞヌズでは、 AWS 環境の脅嚁怜知に Amazon GuardDuty を利甚しおいたす。 Amazon GuardDuty が脅嚁を怜知するず、Slack のチャンネルに通知が届くようになっおおり、この通知を受けお、セキュリティ担圓者がログの詳现分析を行いたす。必芁に応じお、察象のナヌザヌにヒアリングを行いながら、 JIRA チケットに経過を蚘録し、察応状況を管理しおいたす。 珟圚の Amazon GuardDuty の脅嚁怜知察応のフロヌ 今回の取り組みでは、脅嚁怜知埌の察応フロヌのうち、ログ分析のタスクを Amazon Q Developer を掻甚しお、効率化するこずを目指しおいたす。 AI によるログ分析を組み蟌んだ堎合の Amazon GuardDuty の脅嚁怜知察応のフロヌ Amazon Q Developer ずは Amazon Q Developer は、 AWS が提䟛する開発アシスタント AI です。 AWS を掻甚したクラりド開発に特化しおおり、以䞋のような様々なナヌスケヌスに察応しおいたす。 AWS 環境のリ゜ヌス、むベント、アクティビティの調査 AWS 環境のトラブルシュヌティング 開発・デバッグ・コヌディング支揎 ドキュメントの䜜成 Amazon Q Developer は、デフォルトの状態でも Amazon GuardDuty で怜知した脅嚁に぀いお、関連ログを分析するこずができたす。䟋えば、Amazon GuardDuty で怜知された脅嚁の Findings ID ずずもにログ調査を䟝頌するず、以䞋のように Amazon Q Developer は Built-In のツヌルを䜿甚しお、自埋的に調査ず分析を行っおくれたす。 (以䞋は、 Amazon Q Developer がログ調査を行う過皋を䞀郚抜粋したものです。) Amazon Q Developer が自埋的にログ分析を行う様子 Amazon Q Developer が生成したレポヌトには、操䜜を行なったナヌザヌや圱響を受けたリ゜ヌスなど怜知した脅嚁の抂芁がたずめられおおり、掚奚される察応の提案も含たれおいたす。 デフォルトの状態で Amazon Q Developer が出力した分析レポヌト しかし、実際の業務では、操䜜を行なったナヌザヌの認蚌の状態や操䜜時間のログも含めお、確認・分析を行い正垞な動䜜であるかを刀断しおおり、䞊蚘の内容に加え、さらなる远加の調査が必芁です。 たた、詳现なログ調査・分析を行うために、Amazon Q Developer ずチャットによるやり取りを重ねる䞭で、様々な課題が芋えおきたした。 ログ分析を行う䞊での課題 Amazon Q Developer は、デフォルトの状態でも Amazon GuardDuty で怜知した脅嚁の分析を行うこずができたすが、実務レベルのログの詳现分析を行うためには倚くの課題がありたす。 1. AWS API のスロットリング制限 Amazon Q Developer は、 Built-In のツヌルや MCP サヌバヌにより提䟛されおいるツヌルを䜿甚しお実行した API リク゚ストに゚ラヌレスポンスが返っおきた堎合、自埋的に修正を行い、再床、 API リク゚ストを送信したす。 䟋えば、 API リク゚ストの文法が誀っおいた堎合は、自埋的にコマンドの修正を行い、再床、リク゚ストを送信したす。しかし、 API リク゚ストの再送が倚くなるず、スロットリングの䞊限に達しおしたい、最終的に必芁な情報を取埗できないたた、䞍正確な回答や期埅ずは異なる回答を生成しおしたうこずがありたす。 Amazon Q Developer で実行した API リク゚ストがスロットリングの䞊限に到達しおしたい、情報の取埗ができない。 2. 収集しおいるログの制限 Amazon Q Developer は AWS CloudTrail に保存されおいるログを怜玢・分析できたすが、そもそもログが取埗されおいない堎合は分析するこずができたせん。 AWS CloudTrail では、デフォルトで管理むベント IAM ナヌザヌの䜜成や EC2 むンスタンスの起動などのログは自動的に収集されたすが、デヌタむベント S3 バケットぞのファむルアップロヌドや Lambda 関数の実行などのログは手動で蚭定を有効化しなければ収集されたせん。そのため、Amazon GuardDuty が S3 バケットや Lambda 関数ぞの䞍審なアクセスを怜知した堎合でも、事前にデヌタむベントのログ収集を有効化しおいなければ、Amazon Q Developer で AWS CloudTrail ログを怜玢しおも詳现な分析に必芁な情報を取埗するこずができたせん。 Amazon Q Developer がログ分析に必芁な情報を取埗できなければ、掚枬による䞍正確な回答の生成をしおしたう可胜性がありたす。 AWS CloudTrail でデヌタむベントの取埗を有効化しおいないが、 Amazon Q Developer はデヌタむベントの怜玢を詊みる。 AWS 環境のログの収集・保存にはコストがかかるため、䌚瀟や組織の予算に合わせお、意図的にログの収集・保存を実斜しおいない堎合もありたす。珟圚の AWS 環境のログの収集状況を考慮しお、 Amazon GuardDuty で怜知した脅嚁の分析を行う際に、Amazon Q Developer がどのログを掻甚するこずができるかに぀いお敎理する必芁がありたす。 3. コンテキストりィンドりの制限 生成 AI が䞀床に凊理するこずができるテキストの長さのこずをコンテキストりィンドりず蚀い、生成 AI の「蚘憶力」を指し瀺したす。コンテキストりィンドりは、トヌクンずいう単䜍でカりントされおおり、過去のやり取りを含めお䞀定のトヌクン数の範囲内であれば過去のやりずりの内容を螏たえた受け答えを生成するこずができたす。 非垞に長い文章をプロンプトに入力したり、生成 AI ず長いやり取りを続けたりしお、トヌクン数の合蚈がコンテキストりィンドりの範囲を超えるず、Amazon Q Developer は、過去に䞎えた指瀺を忘れおしたい、期埅した回答をしおくれなかったり、䞍正確な情報を出力しおしたったりする可胜性が高たりたす。 コンテキストりィンドりを超過するず、 Amazon Q Developer が自動的に過去情報を芁玄しお、詳现な内容は忘れおしたう Amazon Q Developer もコンテキストりィンドりの制限があり、 200K トヌクンたでずなっおいたす。2025幎10月16日珟圚 トヌクン数のカりントには、 API のリク゚ストやレスポンスにより埗られた情報も含たれたす。無駄なプロンプトの入力を避けるだけでなく、䞍芁な API コヌルを繰り返しお、䞍芁なトヌクンを消費しないように泚意する必芁がありたす。 4. 出力の䞀貫性の課題 生成 AI は、党く同じプロンプトを䞎えたずしおも、生成する回答の出力フォヌマットや含たれる情報が毎回異なりたす。Amazon Q Developer にログ分析のレポヌトを生成するように指瀺した堎合でも、レポヌトに含たれる情報が毎回異なったり、レポヌトの構成が毎回異なったりする可胜性がありたす。 このような堎合、必芁な情報を埗るこずができず、レポヌトに基づいお察応を怜蚎したりするこずが難しくなりたす。 課題を克服するための工倫 このように Amazon Q Developer で Amazon GuardDuty が怜知した脅嚁を詳现分析するには、倚くの課題がありたす。 これらの課題を乗り越えお、Amazon Q Developer を期埅通りに動䜜をさせるために、以䞋の2぀のアプロヌチで改善が必芁です。 Amazon Q Developer がログの詳现分析に必芁ずなる情報を効率的に収集しお、正確な情報に基づく回答を生成できるようにする。 Amazon Q Developer にログの詳现分析を実斜する手順や必芁な操䜜に関する詳现な指瀺を䞎えお、実際の分析業務ず同様にタスクを実行させる。 具䜓的には Amazon Q Developer に、MCP 連携ずプロンプトの調敎を行うこずで改善を図りたした。 1. MCP 連携 MCP Model Context Protocol ずは、生成 AI が倖郚のツヌルやデヌタ゜ヌスず連携を行うために定められた暙準プロトコルです。Amazon Q Developer は、MCP に察応しおいたす。連携したい MCP サヌバヌを蚭定ファむルに蚘入しお、 Amazon Q Developer を起動するこずで、倖郚のツヌルの利甚や、デヌタ参照を行うこずができたす。 Amazon GuardDuty で怜知した脅嚁に関するログの詳现分析を行うために、 Amazon Q Developer に以䞋のツヌルを連携しおいたす。 ツヌル 内容 Built-in ロヌカル環境ぞのファむルの読み曞きや、API による AWS リ゜ヌスの操䜜が実行できるツヌルがデフォルトで提䟛されおいたす。 AWS Knowledge MCP Server AWS に関する最新のニュヌスやブログの情報を含む AWS ナレッゞにアクセスするためのツヌルが提䟛されおいたす。 AWS Documentation MCP Server AWS に関するドキュメント情報にアクセスするためのツヌルが提䟛されおいたす。 CloudTrail MCP Server AWS CloudTrail を䜿甚しおログを怜玢したり、分析を行うためのツヌルが提䟛されおいたす。 Splunk MCP Server Splunk に保存されおいるログを怜玢したり、分析を行うためのツヌルが提䟛されおいたす。 匊瀟では、Splunk Cloud を利甚しお SIEM ( Security Information and Event Management ) を構築しおおり、AWS CloudTrail のログや Entra ID の認蚌ログずいったさたざたなログが集玄されおいたす。 Splunk 瀟が提䟛する Splunk MCP Server ず連携し、 Splunk Cloud の怜玢ク゚リを実行するこずができるツヌルを提䟛するこずで、Amazon Q Developer が AWS CloudTrail に保存されたログに限らず、暪断的に詳现分析を行うこずができるようにしおいたす。 2. プロンプト゚ンゞニアリング プロンプト゚ンゞニアリングずは、生成 AI に䞎える入力情報を工倫するこずで、意図した応答を匕き出したり、回答粟床の向䞊を図る手法です。生成 AI に察しお、指瀺の背景や远加の情報を提䟛したり、タスクの遂行に関する詳现な指瀺を䞎えるこずで、期埅した回答を生成するように調敎を行っおいきたす。 Amazon GuardDuty で怜知した脅嚁に関するログの詳现分析では、 Amazon Q Developer に以䞋のような情報をプロンプトで提䟛するこずで回答粟床の改善を図っおいたす。 項目 蚘茉内容 䟋 ログ調査に必芁ずなるシステム構成の情報 ・どんなログが保存されおいるか ・どこに保存されおいるかなど CloudTrail のログは、Splunk Cloud に保存されおいたす。 ログの調査手順を明瀺的に指瀺 ・ログ分析の際に䜿甚するツヌル ・䜕を調査するかなど ・ログ分析の際は、Splunk MCP Server を優先的に䜿甚しおください。 ・操䜜時間垯が 09:00 〜 18:00 の時間垯は正垞な動䜜であり、䜎リスクず刀断しおください。 出力圢匏レポヌトの内容を具䜓的に指定 ・レポヌトの出力圢匏の指定 ・レポヌトに含める情報の指定 ・レポヌトは、Markdown 圢匏で䜜成しおください。 ・レポヌトは、以䞋の章立おで䜜成しおください。: 以䞋、章立おを蚘茉 実行するコマンドの具䜓的サンプルを提䟛 Splunk の怜玢ク゚リなど 認蚌状況の確認では、以䞋のコマンドを実行しおください。 'index=example userPrincipalName="<メヌルアドレス>" | stats count by status.errorCode, status.failureReason | sort -count' 犁止事項の明蚘 ・実行をしおはいけない操䜜は䜕か ・出力に含めおはいけない情報は䜕か ・自分で日付から曜日を蚈算しないでください。 ・掚枬や仮定に基づく関連付けはしないでください。 プロンプト゚ンゞニアリングにおいおは、生成 AI に䞎える情報量が少ないず、出力内容の調敎に効果が出ないこずがありたす。プロンプトに含む条件や指瀺内容を生成 AI を䜿甚しながらできる限り詳现に蚘茉するこずで、適切な情報量になるようにプロンプトを調敎したした。 工倫による改善ず成果 䞊蚘の調敎を実斜埌、改めお Amazon Q Developer にログ分析を䟝頌した結果、生成されたレポヌトが以䞋になりたす。プロンプトに入力した指瀺は、デフォルト状態の Amazon Q Developer に分析を䟝頌したずきず同じ文章を入力しおいたす。 # GuardDuty Finding 詳现分析レポヌト **Finding ID**: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx **怜出リヌゞョン**: ap-northeast-1 **AWSアカりントID**: 000000000000 **AWSアカりント名**: 䞍明 **分析日時**: 2025-10-16 17:44:14 ## 1. ゚グれクティブサマリヌ ### 重芁な発芋 - **実際のナヌザヌ特定**: User Name < User Email Address >  - **倖郚委蚗ナヌザヌ**: 「xxxx-」プレフィックスにより倖郚委蚗䌚瀟のナヌザヌず刀定 - **誀怜知の可胜性**: 高い正芏ナヌザヌによる通垞業務の可胜性 - **CloudTrailログ**: 察象AWSアカりントのログがSplunkに存圚せず、詳现な認蚌チェヌン远跡は䞍可 ### 緊急察応の芁吊刀断 - **緊急床**: 䜎 - **理由**: 正芏ナヌザヌによる通垞業務時間垯での掻動、Entra ID認蚌も正垞 ### 䞻芁調査結果の芁点 - Finding発生時刻: 2025幎9月9日 13:20:05 JST月曜日の通垞業務時間 - 操䜜内容: S3バケット「< S3-Bucket-Name >」からのGetObject API実行 - ナヌザヌ: 倖郚委蚗䌚瀟の User Name - 異垞性: GuardDutyの機械孊習による異垞怜知だが、業務時間垯での正芏操䜜 ### 掚奚アクション優先床付き 1. **優先床: 䜎** - 圓該ナヌザヌぞの業務内容確認念のため 2. **優先床: 䜎** - S3アクセスログの詳现確認必芁に応じお 3. **優先床: äž­** - GuardDutyの機械孊習ベヌスラむン調敎怜蚎 ## 2. 脅嚁の抂芁 **脅嚁タむプ**: Exfiltration:S3/AnomalousBehavior **重芁床**: 8.0高 **怜出内容**: IAM゚ンティティによる異垞なS3 API呌び出し GuardDutyが怜出した「異垞な」S3 GetObject API呌び出しは、機械孊習ベヌスラむンからの逞脱を瀺しおいるが、実際には正芏ナヌザヌによる通垞業務時間垯での操䜜ず刀定される。 ## 3. 脅嚁の詳现 ### 攻撃手法の詳现分析 - **API**: S3 GetObject - **察象バケット**: < S3-Bucket-Name > - **認蚌方匏**: AuthHeader正芏のAWS認蚌 - **User Agent**: aws-sdk-rust/1.3.8開発ツヌル䜿甚 ### 攻撃者のプロファむリング 実際の攻撃者ではなく、正芏ナヌザヌ「 User Name 」による操䜜 - 倖郚委蚗䌚瀟「xxx-」プレフィックスのナヌザヌ - 通垞業務でAWS SSOを䜿甚 - 開発環境sandboxでの䜜業実瞟あり ### 攻撃の時系列分析 - **2025-09-09 13:20:05 JST**: S3 GetObject API実行 - **2025-09-09 13:29:43 JST**: GuardDutyによる怜出 - **同日同時刻**: Entra IDでのAWS SSOログむン成功を確認 ### 圱響範囲の詳现評䟡 - **圱響を受けたリ゜ヌス**: S3バケット「< S3-Bucket-Name >」 - **デヌタ挏掩リスク**: 䜎sandboxバケット、正芏ナヌザヌ - **暪展開リスク**: なし - **継続的脅嚁**: なし ### 類䌌攻撃パタヌンずの比范 GuardDutyの機械孊習による異垞怜知であり、実際の攻撃パタヌンずは異なる - 正芏認蚌チェヌンの䜿甚 - 通垞業務時間垯での操䜜 - 開発環境での䜜業 ### セキュリティ制埡の回避手法 回避手法は䜿甚されおおらず、党お正芏の認蚌・認可プロセスを経由 - Identity Center経由のSSOログむン - 適切なロヌル暩限での操䜜 - 正芏のAWS SDK䜿甚 ## 4. プリンシパル情報 **ナヌザヌ名**: < Role Name > **実際のナヌザヌ**: User Name < User Email Address >  **ナヌザヌタむプ**: AssumedRoleIdentity Center経由 **アクセスキヌID**: < Access Key ID > **プリンシパルID**: < Principle ID> ### ナヌザヌ属性詳现 - **氏名**: User Name - **所属**: 倖郚委蚗䌚瀟「xxx-」プレフィックス - **メヌルアドレス**: < User Email address> - **ロヌル**: < Role Name > ## 5. 異垞性分析 ### 時間垯による異垞性評䟡 - **Finding発生日**: 月曜日通垞業務日 - **Finding発生時刻**: 13:20:05 JST通垞業務時間 - **異垞性レベル**: **䜎** - 通垞業務時間垯での掻動 - **リスク評䟡**: 䜎リスク ### 地理的異垞性 - **アクセス元**: 日本< ISP Name > - **想定業務拠点**: 日本囜内 - **異垞性**: なし - 想定される業務拠点からのアクセス ### 操䜜パタヌンの異垞性 - **䜿甚ツヌル**: aws-sdk-rust開発ツヌル - **操䜜内容**: S3 GetObjectデヌタ取埗 - **察象**: sandboxバケット開発環境 - **異垞性**: 䜎 - 開発業務での通垞操䜜 ### 認蚌チェヌンの異垞性 - **Entra ID認蚌**: 正垞゚ラヌコヌド0 - **Identity Center**: 正垞なSSOセッション - **AWS認蚌**: 正芏のAssumedRole - **異垞性**: なし - 党お正芏プロセス ### Entra ID認蚌ログ分析結果 #### 実行したSplunkク゚リず結果 **1. 基本情報取埗**: index=< example > userPrincipalName="< User Email Address >" | table userDisplayName userPrincipalName **結果**: ナヌザヌ名「 User Name 」を確認 **2. 30日行動パタヌン**: index=< example > userPrincipalName="< User Email Address >" earliest=-30d | stats count, values(location.city), values(deviceDetail.browser), values(appDisplayName) by userPrincipalName **結果**: - 総ログむン回数: 59回 - アクセス地域: < Access Area > - ブラりザ: Chrome 138.0.0 - 利甚アプリ: AWS SSO, Microsoft 365 Support Service, Microsoft Account Controls V2, Microsoft Teams Web Client **3. 時間パタヌン分析**: index=< example > userPrincipalName="< User Email Address >" earliest=-7d | eval weekday=strftime(_time, "%A"), hour=strftime(_time, "%H") | stats count by weekday, hour | sort weekday, hour **結果**: - 平日・䌑日問わず16時台のアクセスが倚い - 深倜0時台のアクセスも耇数回確認金曜、朚曜、火曜、氎曜 - 通垞業務時間倖のアクセスパタヌンも存圚 **4. 認蚌状況**: index=< example > userPrincipalName="< User Email Address >" | stats count by status.errorCode, status.failureReason | sort -count **結果**: - 成功ログむン: 28回゚ラヌコヌド0 - 認蚌倱敗: 確認されず - 認蚌成功率: 100% **5. Finding発生時刻呚蟺の認蚌ログ**: index=< example > userPrincipalName="< User Email Address >" (Finding発生時刻呚蟺) **結果**: - IPv6アドレス< IPv6 Address >からのAWS SSOログむン成功 - 日本囜内からのアクセス - 認蚌成功゚ラヌコヌド0 ### 本人性確認結果 **振舞い分析による本人確認**: - **通垞パタヌンずの䞀臎**: 高い䞀臎床 - **アクセス地域**: 通垞の< Access Area >からのアクセス - **利甚アプリケヌション**: AWS SSOの通垞利甚 - **認蚌成功率**: 100%異垞な倱敗なし - **本人らしさ**: **高い** - 通垞の行動パタヌンず䞀臎 ## 6. リスク評䟡 ### 総合リスク評䟡: **䜎** #### 根拠 1. **正芏ナヌザヌによる操䜜**: 実圚する倖郚委蚗ナヌザヌによる操䜜 2. **通垞業務時間**: 月曜日13:20の通垞業務時間垯 3. **正芏認蚌プロセス**: Identity Center経由の正垞な認蚌チェヌン 4. **開発環境**: sandboxバケットでの開発䜜業 5. **本人性確認**: Entra IDログで本人の通垞パタヌンず䞀臎 #### 誀怜知の可胜性 **高い** - GuardDutyの機械孊習ベヌスラむンが、このナヌザヌの通垞パタヌンを十分に孊習しおいない可胜性 #### セキュリティ圱響 - **デヌタ挏掩リスク**: 極䜎 - **システム䟵害リスク**: なし - **暪展開リスク**: なし ## 7. 詳现調査 ### CloudTrailログ存圚確認結果 **察象AWSアカりント000000000000のCloudTrailログがSplunkに存圚しないため、詳现な認蚌チェヌン远跡は困難** 実行したク゚リ: index=< example > sourcetype=aws:cloudtrail account=000000000000 | head 1 結果: 0件のログが芋぀かりたした ### ゜ヌスIPアドレスからの候補ナヌザヌ調査 **地理的近接性による候補ナヌザヌ調査**: - Finding詳现のIPアドレス< IP Address >での盎接怜玢: 0ä»¶ - 実際の認蚌ログではIPv6アドレス< IPv6 Address >を䜿甚 - 䞡方ずも日本囜内からのアクセスで地理的敎合性あり ### 远加調査すべき点 1. **GuardDutyベヌスラむン調敎**: 倖郚委蚗ナヌザヌの通垞パタヌン孊習 2. **S3アクセスログ**: 必芁に応じおバケットレベルでの詳现ログ確認 3. **ナヌザヌ業務確認**: 圓該時刻での業務内容確認念のため ### 䞍明な点や疑問点 1. GuardDutyが「異垞」ず刀定した具䜓的な孊習ベヌスラむン 2. 同䞀バケットでの他ナヌザヌのアクセスパタヌン 3. aws-sdk-rustツヌル䜿甚の業務䞊の必芁性 ## 8. 掚奚察応策 ### 即座の察応優先床: 䜎 1. **ナヌザヌ確認**: User Name 氏ぞの業務内容確認念のため 2. **継続監芖**: 同様のパタヌンでの再発監芖 ### 短期察応1週間以内 1. **GuardDuty調敎**: 倖郚委蚗ナヌザヌの正垞パタヌン孊習促進 2. **アクセスパタヌン分析**: sandboxバケットでの通垞アクセスパタヌン確立 ### 䞭長期察応1ヶ月以内 1. **ベヌスラむン最適化**: GuardDutyの機械孊習ベヌスラむン調敎 2. **監芖ルヌル芋盎し**: 倖郚委蚗ナヌザヌ向けの監芖ルヌル策定 3. **ドキュメント敎備**: 正垞な開発䜜業パタヌンの文曞化 ### 察応䞍芁ず刀断される理由 - 正芏ナヌザヌによる通垞業務時間垯での正圓な操䜜 - 党おの認蚌プロセスが正垞 - セキュリティリスクが極めお䜎い - 誀怜知の可胜性が高い **結論**: このFindingは誀怜知ず刀定され、セキュリティむンシデントずしおの察応は䞍芁。GuardDutyのベヌスラむン調敎を掚奚。 デフォルト状態の Amazon Q Developer に Amazon GuardDuty で怜知した脅嚁のログ分析を䟝頌した堎合ず比范しお、次のような改善が芋られたした。 MCP 連携やプロンプト゚ンゞニアリングにより Amazon Q Developer を調敎したこずで、ログ分析の出力に含たれる情報ずその内容を期埅するものに近づけるこずができたした。 プロンプト内で生成するレポヌトのフォヌマットを指定したこずで、耇数回の怜蚌でも出力内容に必芁な情報が安定しお含たれるようになりたした。 Splunk Cloud 䞊のログデヌタを利甚しお、怜知した脅嚁のリスク刀定を行うこずもできおおり、より実務に近い分析を行うこずができたした。 䞀方で、以䞋の芳点では、さらなる改善が必芁になりたす。 耇数回の怜蚌を行う䞭で、䞍正確な情報を含むレポヌトが生成されるこずもありたした。 プロンプト内で明確な指瀺をしおいるにもかかわらず、指瀺を無芖した出力がされるこずがありたした。 Splunk Cloud 䞊に AWS CloudTrail のログが取り蟌たれおいない堎合に、CloudTrail MCP Server が提䟛するツヌルを䜿甚しお、盎接 AWS CloudTrail のログを怜玢せずに、Entra ID のログのみでリスク刀断を行なうこずがありたした。 完党にハルシネヌションを排陀するこずはできず、匕き続き、出力内容の怜蚌ず実行した操䜜をモニタリングしながら、 Amazon Q Developer の調敎を継続的に行う必芁がありたす。 たずめ Amazon Q Developer を掻甚したログ分析は、デフォルトの状態では課題も倚いですが、 MCP 連携やプロンプトの調敎を行うこずにより、実際にログ分析に掻甚できそうな応答を生成できるようになりたした。しかし、その生成内容を完党に信甚するこずはできず、回答の正確さや実際に操䜜した内容などに぀いおは、匕き続き、調敎ず改善を行なっおいく必芁がありそうです。 たた、今回は Amazon Q Developer をログ分析に掻甚するための方法に焊点を圓おお怜蚌を行ったため、本蚘事では蚀及しおいたせんが、生成 AI のセキュアな掻甚ずいう芳点で、MCP サヌバの最小暩限の管理や認蚌情報の管理など、実際に運甚を行なっおいくためには、ただただ改善すべき課題はありたす。 匕き続き、 Amazon Q Developer の掻甚方法を暡玢しながら、セキュリティ運甚の改善・匷化に取り組んでいきたいず思いたす。
アバタヌ
Exploring Threat Analysis in Amazon GuardDuty with Amazon Q Developer Introduction Hello! I'm Otaka from KINTO Technologies' Cloud Security Group. My daily work involves establishing cloud environment guardrails and monitoring and improvement activities using CSPM and threat detection. As part of our group's daily operations, we perform detailed log analysis when Amazon GuardDuty detects threats to verify whether they represent normal operations. To streamline this log analysis process, I conducted a verification using Amazon Q Developer. Responding to Threat Detection with Amazon GuardDuty At KINTO Technologies, we use Amazon GuardDuty for threat detection in our AWS environment. When Amazon GuardDuty detects a threat, notifications are sent to a Slack channel. Upon receiving these notifications, the security team performs detailed log analysis. When necessary, we interview the relevant users and record progress in JIRA tickets to manage response status. Current Amazon GuardDuty threat detection response flow In this initiative, we aim to improve efficiency in the log analysis task within the threat detection response flow by utilizing Amazon Q Developer. Amazon GuardDuty threat detection response flow incorporating AI-based log analysis What is Amazon Q Developer Amazon Q Developer is a development assistant AI provided by AWS. It specializes in cloud development using AWS and supports various use cases such as: Investigating resources, events, and activities in AWS environments Troubleshooting AWS environments Development, debugging, and coding assistance Document creation Amazon Q Developer can analyze related logs for threats detected by Amazon GuardDuty even in its default state. For example, when requesting log investigation along with the Findings ID of a threat detected by Amazon GuardDuty, Amazon Q Developer autonomously conducts investigation and analysis using built-in tools as shown below. (The followings are excerpts of the log investigation process performed by Amazon Q Developer.) Amazon Q Developer autonomously performing log analysis The report generated by Amazon Q Developer summarizes the detected threats, including the user who performed the operation and affected resources, and also includes recommended response suggestions. Analysis report output by Amazon Q Developer in default state In actual operations, we also check and analyze the authentication status of the user who performed the action and the log of the operation time to determine whether it was a normal activity. In addition to the above, further investigation is required. Also, while conducting detailed log investigation and analysis through repeated interactions with Amazon Q Developer via chat, various challenges became apparent. Challenges in Log Analysis While Amazon Q Developer can analyze threats detected by Amazon GuardDuty even in its default state, there are many challenges in performing practical-level detailed log analysis. 1. AWS API Throttling Limits When Amazon Q Developer receives error responses to API requests executed using built-in tools or tools provided by MCP servers, it autonomously makes corrections and resends the API request. For example, if API request syntax is incorrect, it autonomously corrects the command and resends the request. However, if API request retries become too frequent, the throttling limit may be reached, which can prevent the necessary information from being obtained and ultimately lead to inaccurate or unexpected responses. API requests executed by Amazon Q Developer reach throttling limits, preventing information retrieval. 2. Collected Log Limitations Amazon Q Developer can search and analyze logs stored in AWS CloudTrail, but cannot analyze logs that haven't been collected in the first place. AWS CloudTrail automatically collects management event logs (such as IAM user creation or EC2 instance launches) by default, but data event logs (such as file uploads to S3 buckets and Lambda function executions) are not collected unless manually enabled. Therefore, even when Amazon GuardDuty detects suspicious access to S3 buckets or Lambda functions, if data event log collection hasn't been enabled beforehand, searching AWS CloudTrail logs with Amazon Q Developer cannot retrieve information necessary for detailed analysis. If Amazon Q Developer cannot obtain information necessary for log analysis, it may generate inaccurate responses based on speculation. Amazon Q Developer attempts to search data events even though data event collection is not enabled in AWS CloudTrail. Since collecting and storing logs in AWS environments incurs costs, organizations may intentionally not collect or store certain logs based on budget constraints. It's necessary to organize which logs Amazon Q Developer can utilize when analyzing threats detected by Amazon GuardDuty, considering the current log collection status in the AWS environment. 3. Context Window Limitations The length of text that generative AI can process at once is called the context window, representing the AI's memory.Context windows are counted in units called tokens, and within a certain token count range including past interactions, the AI can generate responses based on previous conversation content. When extremely long text is input into prompts or long interactions continue with the generative AI, and the total token count exceeds the context window range, Amazon Q Developer forgets previously given instructions, potentially failing to provide expected responses or outputting inaccurate information. When context window is exceeded, Amazon Q Developer automatically summarizes past information and forgets detailed content Amazon Q Developer also has context window limitations, currently set at 200K tokens (as of October 16, 2025). Token counting includes information obtained through API requests and responses. It's necessary to not only avoid unnecessary prompt input but also avoid repeating unnecessary API calls that consume unnecessary tokens. 4. Output Consistency Challenges Generative AI produces different output formats and included information each time, even when given identical prompts. When instructing Amazon Q Developer to generate log analysis reports, the information included in reports and report structure may differ each time. In such cases, it becomes difficult to obtain necessary information and consider responses based on reports. Approaches to Overcome Challenges As shown above, there are many challenges in performing detailed analysis of threats detected by Amazon GuardDuty using Amazon Q Developer. To overcome these challenges and make Amazon Q Developer operate as expected, improvements are needed through two approaches: Enable Amazon Q Developer to efficiently collect information necessary for detailed log analysis and generate responses based on accurate information. Provide Amazon Q Developer with detailed instructions regarding procedures for conducting detailed log analysis and necessary operations, enabling it to execute tasks similar to actual analysis work. Specifically, improvements were made through MCP integration and prompt adjustments for Amazon Q Developer. 1. MCP Integration MCP (Model Context Protocol) is a standard protocol defined for generative AI to integrate with external tools and data sources. Amazon Q Developer supports MCP. By specifying the MCP servers to integrate in the configuration files and launching Amazon Q Developer, you can use external tools and reference data. For detailed log analysis of threats detected by Amazon GuardDuty, the following tools are integrated with Amazon Q Developer. Tool Description Built-in Tools for reading/writing files to local environments and operating AWS resources via API are provided by default. AWS Knowledge MCP Server Tools for accessing AWS knowledge including latest AWS news and blog information are provided. AWS Documentation MCP Server Tools for accessing AWS documentation information are provided. CloudTrail MCP Server Tools for searching and analyzing logs using AWS CloudTrail are provided. Splunk MCP Server Tools for searching and analyzing logs stored in Splunk are provided. At our company, we have built a SIEM (Security Information and Event Management) using Splunk Cloud, aggregating various logs such as AWS CloudTrail logs and Entra ID authentication logs. By integrating with the Splunk MCP Server provided by Splunk and providing tools that can execute Splunk Cloud search queries, Amazon Q Developer can perform detailed cross-sectional analysis not limited to logs stored in AWS CloudTrail. 2. Prompt Engineering Prompt engineering is a technique for eliciting intended responses and improving response accuracy by carefully designing the input provided to generative AI. By providing generative AI with instruction background and additional information, or giving detailed instructions regarding task execution, adjustments are made to generate expected responses. For detailed log analysis of threats detected by Amazon GuardDuty, response accuracy is improved by providing Amazon Q Developer with the following information through prompts. Item Description Example System configuration information necessary for log investigation - What logs are stored - Where they are stored, etc. CloudTrail logs are stored in Splunk Cloud. Explicitly instruct log investigation procedures - Tools to use for log analysis - What to investigate, etc. - Prioritize using Splunk MCP Server for log analysis. - Consider operations between 09:00 and 18:00 as normal and low risk. Specify output format (report content) - Specify report output format - Specify information to include in report - Create reports in Markdown format. - Create reports with the following chapter structure: (chapter structure listed below) Provide specific command execution samples Splunk search queries, etc. Execute the following command to verify authentication status. 'index=example userPrincipalName=" " | stats count by status.errorCode, status.failureReason | sort -count' Clearly state prohibitions - What operations should not be executed - What information should not be included in output - Do not calculate day of week from dates yourself. - Do not make associations based on speculation or assumptions. In prompt engineering, insufficient information provided to generative AI may not effectively adjust output content. Prompts were adjusted to the appropriate level of detail by specifying conditions and instructions using generative AI. Improvements and Results from Adjustments After implementing the above adjustments, the following report was generated when requesting log analysis from Amazon Q Developer again. The instructions input to the prompt were the same text as when requesting analysis from Amazon Q Developer in its default state. # GuardDuty Finding Detailed Analysis Report **Finding ID**: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx **Detection Region**: ap-northeast-1 **AWS Account ID**: 000000000000 **AWS Account Name**: (Unknown) **Analysis Date/Time**: 2025-10-16 17:44:14 ## 1. Executive Summary ### Key Findings - **Actual User Identification**: User Name (< User Email Address >) - **Outsourced User**: Identified as outsourced company user by "xxxx-" prefix - **False Positive Possibility**: High (possibility of normal work by legitimate user) - **CloudTrail Logs**: Target AWS account logs do not exist in Splunk, detailed authentication chain tracking unavailable ### Emergency Response Necessity Assessment - **Urgency**: Low - **Reason**: Activity by legitimate user during normal business hours, Entra ID authentication also normal ### Key Investigation Results Summary - Finding occurrence time: September 9, 2025 13:20:05 JST (Monday during normal business hours) - Operation content: GetObject API execution from S3 bucket "< S3-Bucket-Name >" - User: User Name from outsourced company - Abnormality: Anomaly detected by GuardDuty machine learning, but legitimate operation during business hours ### Recommended Actions (Prioritized) 1. **Priority: Low** - Confirm work content with relevant user (just in case) 2. **Priority: Low** - Verify S3 access logs in detail (if necessary) 3. **Priority: Medium** - Consider adjusting GuardDuty machine learning baseline ## 2. Threat Overview **Threat Type**: Exfiltration:S3/AnomalousBehavior **Severity**: 8.0 (High) **Detection Content**: Anomalous S3 API calls by IAM entity The "anomalous" S3 GetObject API call detected by GuardDuty indicates deviation from machine learning baseline, but is actually determined to be operation by legitimate user during normal business hours. ## 3. Threat Details ### Detailed Attack Method Analysis - **API**: S3 GetObject - **Target Bucket**: < S3-Bucket-Name > - **Authentication Method**: AuthHeader (legitimate AWS authentication) - **User Agent**: aws-sdk-rust/1.3.8 (development tool usage) ### Attacker Profiling Not an actual attacker, but operation by legitimate user "User Name": - User from outsourced company ("xxx-" prefix) - Uses AWS SSO for normal work - Track record of work in development environment (sandbox) ### Attack Timeline Analysis - **2025-09-09 13:20:05 JST**: S3 GetObject API execution - **2025-09-09 13:29:43 JST**: Detection by GuardDuty - **Same date/time**: Confirmed successful AWS SSO login in Entra ID ### Detailed Impact Scope Assessment - **Affected Resources**: S3 bucket "< S3-Bucket-Name >" - **Data Leakage Risk**: Low (sandbox bucket, legitimate user) - **Lateral Movement Risk**: None - **Persistent Threat**: None ### Comparison with Similar Attack Patterns Anomaly detection by GuardDuty machine learning, differs from actual attack patterns: - Use of legitimate authentication chain - Operation during normal business hours - Work in development environment ### Security Control Bypass Techniques No bypass techniques used, all through legitimate authentication/authorization processes: - SSO login via Identity Center - Operation with appropriate role permissions - Use of legitimate AWS SDK ## 4. Principal Information **User Name**: < Role Name > **Actual User**: User Name (< User Email Address >) **User Type**: AssumedRole (via Identity Center) **Access Key ID**: < Access Key ID > **Principal ID**: < Principle ID> ### Detailed User Attributes - **Name**: User Name - **Affiliation**: Outsourced company ("xxx-" prefix) - **Email Address**: < User Email address> - **Role**: < Role Name > ## 5. Abnormality Analysis ### Time-based Abnormality Assessment - **Finding Occurrence Date**: Monday (normal business day) - **Finding Occurrence Time**: 13:20:05 JST (normal business hours) - **Abnormality Level**: **Low** - Activity during normal business hours - **Risk Assessment**: Low risk ### Geographic Abnormality - **Access Source**: Japan (< ISP Name >) - **Expected Business Location**: Within Japan - **Abnormality**: None - Access from expected business location ### Operation Pattern Abnormality - **Tool Used**: aws-sdk-rust (development tool) - **Operation Content**: S3 GetObject (data retrieval) - **Target**: sandbox bucket (development environment) - **Abnormality**: Low - Normal operation in development work ### Authentication Chain Abnormality - **Entra ID Authentication**: Normal (error code 0) - **Identity Center**: Normal SSO session - **AWS Authentication**: Legitimate AssumedRole - **Abnormality**: None - All legitimate processes ### Entra ID Authentication Log Analysis Results #### Executed Splunk Queries and Results **1. Basic Information Retrieval**: index=< example > userPrincipalName="< User Email Address >" | table userDisplayName userPrincipalName **Result**: Confirmed user name "User Name" **2. 30-Day Behavior Pattern**: index=< example > userPrincipalName="< User Email Address >" earliest=-30d | stats count, values(location.city), values(deviceDetail.browser), values(appDisplayName) by userPrincipalName **Result**: - Total login count: 59 times - Access region: < Access Area > - Browser: Chrome 138.0.0 - Apps used: AWS SSO, Microsoft 365 Support Service, Microsoft Account Controls V2, Microsoft Teams Web Client **3. Time Pattern Analysis**: index=< example > userPrincipalName="< User Email Address >" earliest=-7d | eval weekday=strftime(_time, "%A"), hour=strftime(_time, "%H") | stats count by weekday, hour | sort weekday, hour **Result**: - Many accesses at 16:00 hour regardless of weekdays/holidays - Multiple accesses at midnight 0:00 hour confirmed (Friday, Thursday, Tuesday, Wednesday) - Access patterns outside normal business hours also exist **4. Authentication Status**: index=< example > userPrincipalName="< User Email Address >" | stats count by status.errorCode, status.failureReason | sort -count **Result**: - Successful logins: 28 times (error code 0) - Authentication failures: Not confirmed - Authentication success rate: 100% **5. Authentication Logs Around Finding Occurrence Time**: index=< example > userPrincipalName="< User Email Address >" (Around Finding occurrence time) **Result**: - Successful AWS SSO login from IPv6 address (< IPv6 Address >) - Access from within Japan - Authentication successful (error code 0) ### Identity Verification Results **Identity Confirmation through Behavior Analysis**: - **Match with Normal Patterns**: High degree of match - **Access Region**: Access from normal < Access Area > - **Applications Used**: Normal use of AWS SSO - **Authentication Success Rate**: 100% (no abnormal failures) - **User authenticity**: **High** - Matches normal behavior patterns ## 6. Risk Assessment ### Overall Risk Assessment: **Low** #### Rationale 1. **Operation by Legitimate User**: Operation by actual outsourced user 2. **Normal Business Hours**: Normal business hours on Monday at 13:20 3. **Legitimate Authentication Process**: Normal authentication chain via Identity Center 4. **Development Environment**: Development work in sandbox bucket 5. **Identity Verification**: Matches legitimate user's normal patterns in Entra ID logs #### False Positive Possibility **High** - GuardDuty's machine learning baseline may not have sufficiently learned this user's normal patterns #### Security Impact - **Data Leakage Risk**: Extremely low - **System Compromise Risk**: None - **Lateral Spread Risk**: None ## 7. Detailed Investigation ### CloudTrail Log Existence Confirmation Results **Detailed authentication chain tracking is difficult because CloudTrail logs for target AWS account (000000000000) do not exist in Splunk** Executed query: index=< example > sourcetype=aws:cloudtrail account=000000000000 | head 1 Result: 0 logs found ### Candidate User Investigation from Source IP Address **Candidate User Investigation by Geographic Proximity**: - Direct search with IP address from Finding details (< IP Address >): 0 results - Actual authentication logs use IPv6 address (< IPv6 Address >) - Both accesses from within Japan with geographic consistency ### Points Requiring Additional Investigation 1. **GuardDuty Baseline Adjustment**: Learning normal patterns for outsourced users 2. **S3 Access Logs**: Verify detailed logs at bucket level if necessary 3. **User Work Confirmation**: Confirm work content at relevant time (just in case) ### Unclear Points or Questions 1. Specific learning baseline that GuardDuty determined as "abnormal" 2. Access patterns of other users to same bucket 3. Business necessity for using aws-sdk-rust tool ## 8. Recommended Countermeasures ### Immediate Response (Priority: Low) 1. **User Confirmation**: Confirm work content with User Name (just in case) 2. **Continuous Monitoring**: Monitor for recurrence with similar patterns ### Short-term Response (Within 1 week) 1. **GuardDuty Adjustment**: Promote learning of normal patterns for outsourced users 2. **Access Pattern Analysis**: Establish normal access patterns for sandbox bucket ### Medium to Long-term Response (Within 1 month) 1. **Baseline Optimization**: Adjust GuardDuty machine learning baseline 2. **Monitoring Rule Review**: Establish monitoring rules for outsourced users 3. **Documentation**: Document normal development work patterns ### Reasons for Determining No Response Necessary - Legitimate operation by legitimate user during normal business hours - All authentication processes normal - Security risk extremely low - High possibility of false positive **Conclusion**: This Finding is determined to be a false positive, requiring no response as a security incident. Recommend adjusting GuardDuty baseline. Compared to requesting log analysis of threats detected by Amazon GuardDuty from Amazon Q Developer in its default state, the following improvements were observed. By adjusting Amazon Q Developer through MCP integration and prompt engineering, the information included in log analysis output and its content could be brought closer to expectations. By specifying report format to generate in prompts, necessary information was stably included in output content across multiple verifications. Risk assessment of detected threats could be performed using log data on Splunk Cloud, enabling analysis closer to actual practice. However, further improvements are needed in the following aspects: Through multiple verifications, reports containing inaccurate information were sometimes generated. Despite clear instructions in prompts, outputs ignoring instructions sometimes occurred. When AWS CloudTrail logs were not imported to Splunk Cloud, risk assessment was sometimes performed using only Entra ID logs without searching AWS CloudTrail logs directly using tools provided by CloudTrail MCP Server. Hallucinations cannot be completely eliminated, and continuous adjustment of Amazon Q Developer is necessary while continuing to verify output content and monitor executed operations. Conclusion While log analysis using Amazon Q Developer has many challenges in its default state, by performing MCP integration and prompt adjustments, responses that appear usable for actual log analysis could be generated. However, the generated content cannot be completely trusted, and continued adjustment and improvement regarding response accuracy and actually performed operations appear necessary. Additionally, since this verification focused on methods of utilizing Amazon Q Developer for log analysis, this article does not address other aspects. From the perspective of securely leveraging generative AI, there remain many challenges to be improved for practical operation, such as enforcing minimum privilege management for MCP servers and handling credential management. I will continue to explore utilization methods for Amazon Q Developer while working on improving and strengthening security operations.
アバタヌ
ITオリ゚ンテヌションずその改善に぀いお はじめに KINTOテクノロゞヌズKTCのコヌポレヌトITでは、グルヌプ䌚瀟のIT業務支揎も行っおいたす。 私は珟圚、グルヌプ䌚瀟におヘルプデスク業務の支揎を担圓しおおり、その䞭で新芏入堎者向けのITオリ゚ンテヌション以䞋、オリ゚ンも実斜しおいたす。 その䞭で、PCずスマホの取り扱い方法や業務環境の説明や初回のパスワヌド倉曎をサポヌトしおおりたす。 他瀟のIT郚門がどのようにオリ゚ンを行っおいるかを知る機䌚は少ないず䜓感しおいるので、少しでも参考になればず思い蚘事にたずめたした。 背景ず課題 オリ゚ンは月に1〜2回の頻床で実斜されおいたす。 これたでは、担圓者の経隓ず知識に䟝存した運甚で、資料はなく、簡単なメモいわゆる“あんちょこ”のみが存圚しおいたした。 もずもず1人でヘルプデスク業務を担っおいたため、資料化の必芁性がなかったずいう背景がありたす。 しかし、属人化から脱华し、組織ずしお察応できる䜓制を目指すために私がゞョむンし、改善に取り組むこずになりたした。 正盎なずころ、オリ゚ンを担圓した初日、「これは぀らい 」ず感じたのが䞀番のきっかけです笑 オリ゚ンのゎヌル蚭定 業務においおPCがない環境ずいうのは考えられないため、よりスムヌズに業務に入っおいただけるように 「䌚瀟PC・スマホを䜿える状態になっおいる」「自瀟のおおたかなPC環境を理解しおいる」 状態になっおもらう。をゎヌルずしお蚭定したした。 改善に぀いおも、参加者がよりゎヌルに達成しやすくなるように行いたした。 実斜した改善 改善は䞻に以䞋の2点に取り組みたした。 1. 資料化 これたでのメモをベヌスに、説明内容を䜓系的に敎理し、資料ずしお敎備したした。 システムの説明や泚意点を網矅し、説明挏れがないように構成しおいたす。 たた、略称が倚く䜿われる環境のため、資料内で郜床解説を加えるようにしたした。 さらに、以䞋の工倫も取り入れおいたす。 アむスブレむクの工倫 入堎者は緊匵しおいるこずが倚く、理解力や質問のしやすさに圱響したす。 そこで、ヘルプデスクメンバヌの自己玹介を資料に盛り蟌み、趣味や奜きなこずを「ゆるめ」に玹介するこずで、芪しみやすさずリラックス感を挔出しおいたす。 支揎先は堅めな䌚瀟なので、盛り蟌むのには勇気が必芁でしたが、より効果的に行うにはこれが必芁だ。ずいう信念をもずに察応したした。 想いの衚明 我々が「瀟内のサポヌトメンバヌずしお、ビゞネスを止めないために掻動しおいる」ずいうこずを、熱量高めに䌝えるようにしおいたす。 「困ったら遠慮なく頌っおほしい」ずいうメッセヌゞは、問い合わせの増加による皌働超過。過床な䟝存に぀ながる懞念もありたすが、サポヌト郚門ずしおの存圚䟡倀は、頌られるこずにあるず考えおいたす。 良奜な関係性が築けおいないず、我々起因で仕組みを倉えたりする際のヒアリングや、課題解決がスムヌズに進みたせん。 たた、芪密感を持っおもらうこずは、結果的に䞍芁な問い合わせを枛らしたり、トラブルの解決時間削枛の効果もあるず感じおいたす。 講垫もわかりやすい資料化 属人化脱华のためには、講垫をやる難易床も䞋げる必芁がありたす。 そのため、参加者にずっおもわかりやすいだけでなく、講垫にずっおもわかりやすい資料にする必芁がありたす。 その際に工倫したのは䞋蚘の2点です。 説明の流れを意識 オリ゚ンの䞭で、PCのパスワヌド倉曎があるのですが、それをスムヌズにするため、以䞋の順序で資料を敎理したした。 業務スマホのロック解陀しお䜿える状態にする スマホの初期パスコヌド倉曎ず生䜓認蚌蚭定 PCぞのログむンスマホを利甚した倚芁玠認蚌解陀 PCパスワヌドの倉曎 この順番にするこずで、必芁ずなる操䜜が䞀本道ずなり、参加者も講垫も迷いなく進められたす。 1ペヌゞ1コンテンツ 1ペヌゞに詰め蟌みすぎず、「このペヌゞで䜕を説明するか」を明確にしたした。 これも参加者は理解しやすく、講垫も話す内容を把握しやすくなりたす。 2. 振り返りの仕組み オリ゚ン終了埌、なるべく早くチヌムで振り返り䌚を実斜しおいたす。 蚘憶が新しいうちに、KPTAKeep・Problem・Try・Actionのフレヌムワヌクを䜿っお小さなずころでも改善点を掗い出し、次回に掻かしおいたす。 改善案Actionはチヌムのタスク管理に組み蟌み、挏れがないようにしおおりたす。 この振り返りで改善をし続けおいたす。 具䜓的には、䞋蚘のようなActionを実行したした。 順番を入れ替えるこずで重耇の説明を排陀した 参加者にも簡単な自己玹介をしおもらうこずで、同期間のコミュニケヌションを促進した オリ゚ンテヌションの内容 改善埌のオリ゚ンでは、以䞋のような内容を説明・実斜しおいたす。 時間ずしおは、1時間をずっおもらっおおりたす。 雑談や質問の時間もずっおおり、はじめおの緊匵を和らげ぀぀、自瀟の環境に぀いお知っおもらう時間ずしおおりたす。 メンバヌの自己玹介 業務環境VDIの説明 初回ログむンずパスワヌド倉曎 機噚取り扱いの泚意点 サポヌト窓口の案内 やっおみお感じたこず 参加者からは「今たでこんなに楜しい説明䌚はなかった」ずいった感想をいただくこずが増えたした。 特に、我々の自己玹介をきっかけに声をかけおもらえるこずが倚くなり、関係性の構築にも぀ながっおいたす。 たた、特定のメンバヌに䟝存せず、誰でもオリ゚ンを担圓できる䜓制が敎い、組織ずしおの察応力も向䞊したした。 さいごに オリ゚ンの参加者は、緊匵や䞍安を抱えおいるこずが倚いです。 業務に欠かせないPCやスマホも、䌚瀟ごずに環境が異なるため、初めおその䌚瀟の機噚に觊れた際に戞惑うずころが倚いのは圓然だず思いたす。 KTCのようなITのプロ集団でも戞惑われる方がそれなりにいらっしゃるので、IT専業ではないグルヌプ䌚瀟ではなおさらです。 たた、掻躍を期埅されお入堎しおいるので「うたくできない自分を芋せるわけにはいかない」ずいう心理はずおも匷く働き、質問や盞談がしづらくなりたす。 だからこそ、 「誰でも最初はうたくできない」「ITのプロである私も倱敗した」 ずいうこずを積極的に䌝え、安心しお頌っおもらえる雰囲気づくりを心がけおいたす。 ITオリ゚ンテヌションは様々な立堎の方に実斜するため、我々の存圚を認知しおもらい、頌っおもらえる関係性を築いおいくための第䞀歩になるものだず思いたす。 こういうずころから、組織でのIT掻甚の促進、ひいおは事業の加速にたで぀ながっおいるず信じおいたす。
アバタヌ
はじめに QAグルヌプのWebチヌムのroです。 実際のQA案件業務においおは、䞭叀車のテストデヌタを倧量に生成する必芁がありたすが、その手順は耇雑で泚意点も倚く、䜜業には倚くの時間を芁しおいたした。 この課題を解決するため、Playwrightを掻甚し、䞭叀車デヌタ生成の党工皋を自動化しようず思っおいたす。 この取り組みを瀟内の「Vibe Coding」むベントにおいお実斜し、Vibe Codingの手法を甚いお䞭叀車デヌタ自動生成甚のPythonスクリプトを実装したした。 Vibe Codingずは Vibe Codingずは、生成AIず人間の゚ンゞニアが協働しお行う新しい開発スタむルです。 AIが「コヌド生成」や「調査」ずいった重い䜜業を匕き受け、人間は「品質の怜蚌・改善」に集䞭するこずで、高品質か぀効率的な開発を行えたす。 Vibe Codingは、以䞋぀の特城がありたす 自由床が高いテヌマやルヌルが緩く、各自奜きな技術や課題に取り組める 亀流の堎普段関わらないメンバヌずも䞀緒に䜜業でき、知識やスキル共有のきっかけになる モチベヌション向䞊䞀人でやるよりも集䞭しやすく、楜しみながら成果を出せる 䞭叀車デヌタ自動䜜成のスクリプトの流れ 䞭叀車デヌタ自動䜜成のスクリプトのシステム構成図 スクリプト実装䞭に頑匵ったこず 実際に䞭叀車デヌタ自動䜜成甚のスクリプトを実装䞭、いく぀かの課題に盎面したしたが、詊行錯誀ず芖点の転換を重ねるこずで、最終的に問題を解決するこずができたした。 1. S3バケットに䞭叀車契玄の情報ファむルをアップロヌドする S3バケットに䞭叀車契玄の情報ファむルをアップロヌドする手順がありたす。これたで、この手順は䞭叀車チヌムに䟝頌しお操䜜しおもらっおいたした。今回は、この手順も自動化するために、事前に䞭叀車チヌムずクラりドチヌムに盞談し、S3ぞのアクセス暩限を付䞎しおいただきたした。S3の接続暩限を埗たこずで、Pythonを甚いおS3ぞのファむル自動アップロヌドを実珟できるようになりたした。 コヌドの䟋 # SSOでログむン枈みのプロファむルを指定 session = boto3.Session(profile_name="your_profile_name") # S3クラむアント䜜成 s3 = session.client("s3") # アップロヌド先情報 bucket_name = "your-bucket-name" local_file_path = r"path/to/your/local/file.txt" s3_object_key = "path/to/s3/object.txt" try: s3.upload_file(local_file_path, bucket_name, s3_object_key) print(f"{local_file_path} を S3バケット '{bucket_name}' の '{s3_object_key}' にアップロヌドしたした。") except Exception as e: print(f"アップロヌドに倱敗したした: {e}") 2. 茞送䟝頌のExcelファむルの自動生成 本来は、サむトから茞送䟝頌甚のExcelファむルをダりンロヌドし、その䞭から䞍芁な内容を削陀したうえで、䞭叀車契玄の情報を再入力し、再床サむトぞアップロヌドする必芁がありたした。しかし、この煩雑な手順は時間がかかるうえ、ミスが発生しやすいずいう課題がありたした。今回、Pythonを掻甚するこずで、䞍芁な内容を自動削陀し、必芁な情報を抜出しおExcelぞ自動蚘入し、最埌にサむトぞ自動アップロヌドするこずが可胜になりたした。これたで手䜜業で行っおいた面倒な䜜業から解攟できたした コヌドの䟋 # 元のCSVファむルパス folder = r"C:\Users\×××\Downloads" pattern = os.path.join(folder, "req_000550_4*.csv") files = glob.glob(pattern) # 正芏衚珟で「req_000550_」19桁の英数字に䞀臎するファむルを抜出 regex = re.compile(r"req_000550_[0-9A-Za-z]+\.csv$") target_files = [f for f in files if regex.search(os.path.basename(f))] input_file = target_files[0] #print(f"察象ファむル: {input_file}") # ===== CSV読み蟌み ===== df = pd.read_csv(input_file, header=None) # ===== セル曎新 ===== df.iloc[1, 1] = display_text1 # B2 df.iloc[1, 2] = display_text3_formatted # C2 df.iloc[1, 3] = display_text2 # D2 # G2, H2, I2, J2 → 列番号は G=6, H=7, I=8, J=90始たり today_str = datetime.now().strftime("%Y%m%d") for col in [6, 7, 8, 9]: df.iloc[1, col] = today_str # ===== 保存ファむル名䜜成 ===== safe_display_text3 = display_text3.replace(":", "-").replace(" ", "_") new_filename = f"req_000550_{safe_display_text3}.csv" output_file = os.path.join(folder, new_filename) # ===== CSV保存 ===== df.to_csv(output_file, index=False, header=False, encoding="utf-8-sig") print(f"曎新完了: {output_file}") await page.get_by_role("button", name="茞送状況を登録する").click() new_filename = f"req_000550_{safe_display_text3}.csv" filePath = rf"C:/Users/×××/Downloads/{new_filename}" route = os.path.abspath(filePath) async with page.expect_file_chooser() as fc_info: await page.get_by_role("button", name="受付状況曎新ファむル(CSV圢匏 UTF-8/CRLF/BOMあり) prepended action").click() file_chooser = await fc_info.value await file_chooser.set_files(route) await page.get_by_role("button", name="アップロヌドする").click() await page.get_by_role("button", name="OK").click() 3. 各システム間におけるデヌタ反映時間の把握 ぀の䞭叀車デヌタに察しお、あるシステム䞊での操䜜が完了した埌、䞀定の時間を埅たなければ、他のシステムで次の操䜜を行うこずができたせん。この埅機時間の管理は容易ではありたせんが、自動化スクリプトを掻甚するこずで、正確に埅機時間を把握し、時間になれば自動的に次の操䜜ぞ進めるこずが可胜になりたした。これにより、業務効率が倧幅に向䞊したした。 感想 今回の成果物は、今埌の案件業務に掻甚できそうです。 埓来200台の䞭叀車デヌタの䜜成に玄2ヶ月かかっおいたが、自動化により工数を削枛するこずを期埅できそうです。 成果 今回は、䞭叀車デヌタ生成の自動化を実珟しただけでなく、今埌に぀ながる有益な経隓ず発想を埗るこずができたした。 この経隓を掻かし、今埌のQA業務においおも、自動化できる業務をさらに発掘し、段階的に実珟しおいきたいず考えおいたす。 おわりに 今回のVibe Coding Weekでは、䞭叀車デヌタの自動䜜成のチャレンゞを実斜し、短期間で成果を埗るこずができたした。 今埌も自動化、AIに力を入れお、デヌタ自動䜜成だけではなく、テスト蚭蚈、テスト実斜も自動化にしおいきたいず思いたす。
アバタヌ
Introduction Hello! I'm Rasel , and today I want to share something that most Android developers overlook - the inlineContent property of Jetpack Compose's Text composable. Recently, while working on the my route app at KINTO Technologies Corporation, we encountered a UI challenge that seemed simple but turned out to be quite complex: displaying colored benefit labels inline with ticket names in our ticket usage history screen. ![Figma design showing inline label and ticket name](/assets/blog/authors/ahsan_rasel/inline-content-compose/FigmaDesign.png =250x) The tickets shown are samples. Please check the app for tickets that are actually on sale. As you can see in the design, we needed a pink labeled text with rounded corners that flows naturally with the ticket name text. Most developers would reach for Row or FlowRow to solve this, but these approaches have significant limitations when dealing with text that needs to wrap and flow naturally. The Problem: When Row and FlowRow Fall Short Consider this UI pattern from our actual design: [With coupon] One-day Pass for all Kagoshima City buses, trams and ferry routes. Where [With coupon] is a pink label with rounded corners that must appear seamlessly inline with the text. Approach 1: Using Row (The Naive Solution) @Composable fun TicketNameWithRow(name: String, benefitLabel: String) { Row( horizontalArrangement = Arrangement.spacedBy(4.dp), verticalAlignment = Alignment.CenterVertically, ) { Box( modifier = Modifier .background( color = MaterialTheme.colors.subPink, // Design system color shape = RoundedCornerShape(2.dp), ) .padding(horizontal = 4.dp), contentAlignment = Alignment.Center, ) { Text( text = benefitLabel, style = MaterialTheme.typography.body3Bold, color = MaterialTheme.colors.onPrimaryHighEmphasis, ) } Text( text = name, style = MaterialTheme.typography.body2Bold, ) } } Result: ![Result of Row approach: label and text misaligned](/assets/blog/authors/ahsan_rasel/inline-content-compose/WithRow.png =250x) Problems with Row: Label doesn't align perfectly with text baseline Inconsistent spacing when text wraps Breaks the natural text flow Approach 2: Using FlowRow (Better, But Still Limited) @Composable fun TicketNameWithFlowRow(name: String, benefitLabel: String) { FlowRow( horizontalArrangement = Arrangement.spacedBy(4.dp), verticalAlignment = Alignment.CenterVertically, ) { Box( modifier = Modifier .background( color = MaterialTheme.colors.subPink, shape = RoundedCornerShape(2.dp), ) .padding(horizontal = 4.dp), contentAlignment = Alignment.Center, ) { Text( text = benefitLabel, style = MaterialTheme.typography.body3Bold, color = MaterialTheme.colors.onPrimaryHighEmphasis, ) } Text( text = name, style = MaterialTheme.typography.body2Bold, ) } } Result: ![Result of FlowRow approach: label and text still not aligned](/assets/blog/authors/ahsan_rasel/inline-content-compose/WithFlowRow.png =250x) As shown above, the UI still doesn't align perfectly with our design. The label and text do not flow naturally when wrapping. Another Approach: Using AnnotatedString (SpanStyle) Before Jetpack Compose supported true inline composables, many developers tried to achieve similar effects using only AnnotatedString and SpanStyle . This approach uses background color and rounded corners via SpanStyle to style part of the text as a label. Approach 3: AnnotatedString with SpanStyle This method is limited compared to inlineContent , but can be useful for simple cases where you only need background color and text styling (not custom composables or padding). @Composable fun TicketNameWithAnnotatedString(name: String, benefitLabel: String) { val cornerRadius = with(LocalDensity.current) { 2.dp.toPx() } val drawStyle = Stroke(pathEffect = PathEffect.cornerPathEffect(cornerRadius)) val nameStyle = MaterialTheme.typography.body2Bold.toSpanStyle() val benefitStyle = MaterialTheme.typography.body3Bold.copy( color = MaterialTheme.colors.onPrimaryHighEmphasis, background = MaterialTheme.colors.subPink, drawStyle = drawStyle, ).toSpanStyle() val annotatedString = remember(name, benefitLabel) { buildAnnotatedString { withStyle(style = benefitStyle) { append(" $benefitLabel ") // Add spaces for padding effect } append(" ") withStyle(style = nameStyle) { append(name) } } } Text(text = annotatedString) } Result: ![Result of AnnotatedString approach: label with background color, no rounded corners](/assets/blog/authors/ahsan_rasel/inline-content-compose/WithAnnotatedString.png =250x) Limitations: Rounded corners are not achieved properly while using proper value from design (background is mostly a rectangle, and needs to adjust value to make it rounded, still proper rounding is not achieved) No custom composable or icon support Padding is simulated with spaces, not true padding Baseline alignment is good, but label may not look as polished as with inlineContent Text styling also gets changed from design When to use: When you only need a colored background and simple text styling When you want a dependency-free, simple solution for basic badges The Solution: InlineContent - The Proper Way InlineContent allows you to embed custom composable directly within text, treating them as characters in the text flow. Here's how we implemented it in the my route app: Step 1: Understanding the Production Implementation Below is a simplified version of our production code, showing how to use inlineContent to embed a custom label inside text: @Composable private fun TicketNameWithBenefit( name: String, benefitLabel: String, ) { val nameStyle = MaterialTheme.typography.body2Bold.toSpanStyle() val annotatedString = remember(name, benefitLabel) { buildAnnotatedString { appendInlineContent(benefitLabel) // Use label text as unique key append(" ") withStyle(style = nameStyle) { append(name) } } } // ... (inline content implementation) Text( text = annotatedString, inlineContent = inlineContent, ) } Step 2: Dynamic Width Calculation (The Critical Part) Calculating the exact width for the label background is essential for a seamless look. Here is how we do it: The most challenging aspect is calculating the exact width needed for the label background: val density = LocalDensity.current val textMeasurer = rememberTextMeasurer() val horizontalPadding = 4.dp val benefitLabelBgWidthSp = remember(benefitLabel) { val textLayoutMeasure = textMeasurer.measure( text = benefitLabel, style = benefitStyle, ) with(density) { (textLayoutMeasure.size.width.toDp() + (horizontalPadding * 2)).toSp() } } Why this is complex: Text Measurement : We need to measure the text before rendering Unit Conversion : Convert between pixels, dp, and sp correctly Padding Calculation : Include padding in the total width Density Awareness : Handle different screen densities Step 3: Creating the Inline Content Mapping Now, we map the label to a composable using InlineTextContent , ensuring it aligns and sizes perfectly: val inlineContent = remember(benefitLabel, benefitLabelBgWidthSp) { mapOf( benefitLabel to InlineTextContent( placeholder = Placeholder( width = benefitLabelBgWidthSp, height = benefitStyle.lineHeight, placeholderVerticalAlign = PlaceholderVerticalAlign.Center, ), ) { Box( modifier = Modifier .background( color = MaterialTheme.colors.subPink, shape = RoundedCornerShape(2.dp) ) .padding(horizontal = horizontalPadding), contentAlignment = Alignment.Center, ) { Text( text = benefitLabel, style = benefitStyle, color = MaterialTheme.colors.onPrimaryHighEmphasis, ) } } ) } Key implementation details: placeholderVerticalAlign = PlaceholderVerticalAlign.Center ensures perfect alignment height = benefitStyle.lineHeight matches the text height exactly Dynamic width calculation ensures perfect fit for any label text The Complete Production Implementation Here's our actual implementation from the my route app: @Composable private fun TicketNameWithBenefit( name: String, benefitLabel: String, ) { val nameStyle = MaterialTheme.typography.body2Bold.toSpanStyle() val benefitStyle = MaterialTheme.typography.body3Bold val annotatedString = remember(name, benefitLabel) { buildAnnotatedString { appendInlineContent(benefitLabel) append(" ") withStyle(style = nameStyle) { append(name) } } } val density = LocalDensity.current val textMeasurer = rememberTextMeasurer() val horizontalPadding = 4.dp val benefitLabelBgWidthSp = remember(benefitLabel) { val textLayoutMeasure = textMeasurer.measure(text = benefitLabel, style = benefitStyle) with(density) { (textLayoutMeasure.size.width.toDp() + (horizontalPadding * 2)).toSp() } } val inlineContent = remember(benefitLabel, benefitLabelBgWidthSp) { mapOf( benefitLabel to InlineTextContent( placeholder = Placeholder( width = benefitLabelBgWidthSp, height = benefitStyle.lineHeight, placeholderVerticalAlign = PlaceholderVerticalAlign.Center, ), ) { Box( modifier = Modifier .background( color = MaterialTheme.colors.subPink, shape = RoundedCornerShape(2.dp), ) .padding(horizontal = horizontalPadding), contentAlignment = Alignment.Center, ) { Text( text = benefitLabel, style = benefitStyle, color = MaterialTheme.colors.onPrimaryHighEmphasis, ) } }, ) } Text( text = annotatedString, inlineContent = inlineContent, ) } Result: ![Result of inlineContent approach: label and text perfectly aligned](/assets/blog/authors/ahsan_rasel/inline-content-compose/WithInlineContent.png =250x) As you can see, this implementation perfectly aligns with our design goal. Why We Switched from External Library When we couldn't achieve our design using Row, FlowRow and even AnnotatedString approach, we tried using an third party library: val extendedSpans = remember { ExtendedSpans( RoundedCornerSpanPainter(
), ) } Text( modifier = Modifier.drawBehind(extendedSpans), text = remember(text) { extendedSpans.extend(text) }, onTextLayout = { result -> extendedSpans.onTextLayout(result) } ) By using a third-party library, we finally achieved our design goal. But we don't want to ship another library with our app just for this single Text UI item and reconsidered other approaches. Problems we encountered: Additional dependency for a simple feature Less control over styling and behavior Potential compatibility issues with future Compose versions The native solution proved to be better: No external dependencies Full control over styling and behavior Better performance Future-proof with Compose updates Advantages of InlineContent Approach Natural Text Flow : Labels wrap with text naturally, maintaining proper line breaks Perfect Alignment : Consistent baseline alignment with surrounding text Flexible Styling : Full support for complex text formatting (bold, colors, sizes) Dynamic Sizing : Adapts to content automatically while maintaining design consistency Performance : Efficient rendering as part of the text layout engine Accessibility : Screen readers handle it as part of the text flow Common Pitfalls and Solutions Pitfall 1: Hardcoded Dimensions ❌ Wrong: Placeholder(width = 60.sp, height = 16.sp) // Fixed dimensions ✅ Correct: Placeholder( width = calculatedWidth, // Dynamic based on content height = textStyle.lineHeight, // Match text height ) Pitfall 2: Incorrect Unit Conversion ❌ Wrong: textLayout.size.width.toSp() // Direct conversion loses density information ✅ Correct: with(density) { textLayout.size.width.toDp().toSp() // Proper density-aware conversion } Pitfall 3: Missing Performance Optimization ❌ Wrong: // Recalculated on every composition val inlineContent = mapOf(...) val annotatedString = buildAnnotatedString { ... } ✅ Correct: val inlineContent = remember(dependencies) { mapOf(...) } val annotatedString = remember(dependencies) { buildAnnotatedString { ... } } Use Cases Beyond Benefit Labels This technique works excellently for: Status badges in lists Rating stars within reviews Currency symbols with special styling Icon indicators in text Highlighted keywords in search results Performance Considerations The remember usage is crucial for performance: // Expensive operations cached properly val benefitLabelBgWidthSp = remember(benefitLabel) { /* text measurement */ } val inlineContent = remember(benefitLabel, width) { /* composable creation */ } val annotatedString = remember(name, benefitLabel) { /* string building */ } This ensures calculations only happen when dependencies change, not on every composition. Conclusion InlineContent is a powerful but underutilized feature of Jetpack Compose. When you need to embed custom UI within text flow, it's the superior solution compared to layout-based approaches like Row or FlowRow . The dynamic width calculation technique we've implemented solves the common problem of perfectly fitting background elements to text content. While the implementation requires understanding text measurement and unit conversion, the result is a professional, performant UI that scales well across different devices and text sizes. Our experience transitioning from an external library to this native solution proved that sometimes the built-in tools, when used correctly, provide the best balance of performance, maintainability, and design flexibility. Next time you encounter inline UI challenges, remember: inlineContent is your friend! Key Takeaways: Use InlineContent for true inline UI elements that need to flow with text Implement dynamic width calculation using TextMeasurer for perfect fitting Optimize with remember for performance, especially text measurements Prefer native solutions over external libraries when built-in APIs suffice Pay attention to unit conversion and density handling Happy coding!
アバタヌ
はじめに こんにちはKINTOテクノロゞヌズQAグルヌプで䞻にWebフロント゚ンド案件を担圓しおいるoshimaです。 匊瀟は党瀟を挙げおAI利甚を掚進しおいたすが、その波に乗っお先月生成AIコヌディング䌁画”Vibe Coding Week”が行われたした。この䌁画で私がチャレンゞした内容に぀いおご玹介いたしたす。 Vibe Coding Week䌁画そのものの説明は他の蚘事をご参照いただければず思いたす。 背景 私自身、通垞業務でコヌディングをほずんど行うこずはありたせん。䞀方、私の担圓する案件に぀いおは䞀぀䞀぀のリリヌスサむクルが速いこずず、同じ期間に耇数の案件が重耇するこずで、効率の良いテストが求められおいたした。 ずなればテスト自動化が䞀぀のカギになりたす。実際グルヌプではPlaywrightを甚いおの自動化が掚進されおきたした。が、私自身は残念ながら「コヌドの曞けない人」です。これたでは出来る同僚に䟝頌するなどの方法でしのいできたしたが、い぀たでも圓おにし続けられないなかなか手が空かないずいう状態が続いおいたした。 救䞖䞻 自動化出来れば効率アップできそうな案件関連のネタは持っおいる。ただ、自身のスキルではどうしようもなかった。そんなもどかしい状態を打ち砕いおくれたのが生成AIです。 やりたいテスト条件ず期埅倀、制玄条件などがはっきりしおいお、AIに正しく䌝えるこずができれば、お望みのコヌドを生成しおくれる。これならコヌディングできない自分でも自動化に察しお立ち向かっおいける。業務の効率化のみならず、今たで自分が越えられなかった壁を越えおくれるかもしれない、救䞖䞻のような存圚がAIでした。 チャレンゞ䌁画ずの芪和性 日本語のプロンプトでPlaywrightによる自動テストコヌドを生成しおいこうずいう取り組みは、先述のVibe Coding Week䌁画関係なく自然発生的なものでした。なので、䌁画発衚があった時点で、䌁画意図に沿った内容の報告ができるのではないかずいう感觊を持っおいたした。 適甚案件の特城 通垞業務での効率化の察象ずした案件、そしおチャレンゞ䌁画で取り組んだ案件が、瀟内では「静的資材」案件ず呌ばれおいるものです。䞻にはKINTO ONEのサヌビスで取り扱う車皮の仕様をお客様に玹介するためのペヌゞや契玄内容の案内ペヌゞなどの確認を行う案件です。 䟋 トペタ ダリスの玹介ペヌゞ 特城 車皮玹介のペヌゞになるず、KINTOで取り扱う車皮が増えるごずに案件が成立したすが、ペヌゞレむアりトや項目は党車皮共通。異なるのは画像ず䟡栌などのため、確認する内容は車皮が倉われども同じずいう案件の特城がありたした。 通垞のテストでの䜜業内容 通垞のテストで実斜しおいた内容は以䞋ずなりたす。 党䜓デザむンがFigmaで䜜成されたデザむンず比范しお差異がなく、たたレむアりトの厩れがないこず 衚瀺されおいる䟡栌・サむズ・燃費などの各皮デヌタが指定ファむルず同じであるこず 画面内のボタンやリンクの遷移先が仕様通りであるこず これらの確認を今たでは目芖確認で行っおきたした。原始的なやり方ですが、ある皋床䞍具合指摘もできおいたのですが、数が重なっおくるずこれでは厳しくなっおきたす。䞊蚘の確認3項目に぀いおは、うたくやれば自動で枈みそうな内容です。 幞い詊隓時にはFigmaでの画面デザむン、䟡栌衚や燃費・サむズの蚘茉された諞元衚の指定ファむルは提瀺されたす。材料はありたす。なので、テスト察象ペヌゞの蚘茉内容ず自動で比范は特に問題なくできるのではないかずいう仮説を立お、チャレンゞしおみたした。 チャレンゞ䌁画での取り組み 党䜓デザむンの自動比范 デザむンの比范に぀いおは、次の手順で取り組みたした。 テスト察象の該圓Figmaペヌゞからコンポヌネント情報を抜出しおJSONに出力を詊みる 党郚だず情報量が倚く読み蟌みに倱敗 抜出する情報を䜍眮情報に絞っお盞察䜍眮比范でレむアりト厩れ確認に移行 レむダヌやID情報などが耇雑で、ほしい情報を敎理するのに苊劎 実画面情報ずの解像床の差もあっお、単玔な比范で゚ラヌ頻発 残念ながらこのチャレンゞ期間ではデザむン呚りはうたくいきたせんでした。 䟡栌などの衚瀺情報の自動比范 こちらに぀いおは、次の手順で取り組みたした テストペヌゞの衚瀺情報を抜出しおJSONに出力を詊みる 通垞テキストは䜙裕でしたが衚圢匏は項目名指定で工倫が必芁でした 元デヌタExcelから情報抜出しお同様にJSON出力 比范をしたいので「基本性胜・䞻芁装備」ず「プラン別ご利甚料むメヌゞ」郚分を抜出 結果的にうたくいきたしたが、実はいろいろ詊行錯誀し、結局はセル番号指定でのベタな指什に萜ち着きたした。 䜜成された2぀のJSONを比范 ここたでくるず問題なく実行完了 テキスト情報は比范的スムヌズにうたくいきたした。 リンク遷移先の確認 こちらは党郚終わらなかったのですが、時間かければできそうな実感がありたした。 ボタンに蚭定されたリンク先の取埗は問題なし 目芖の方が速そうなので比范の自動化たでは実斜せず チャレンゞ䌁画の成果 ポむントは、単玔に情報抜出しおくださいではなく、テストコヌドをタむプスクリプト圢匏で実装し、Playwrightで実行したこずです。このコヌドを生成しおおくこずで、他の車皮や元デヌタファむルが倉わっおも少しの改倉で察応できるようになりたした。 今たで目芖確認で行っおいたテスト内容を䞀郚でも自動化出来たこずは䞀぀の成果ですが、できおいない箇所や、より効率的にテストが進められる改善の䜙地は、残念ながらただただ倚いです。 ずはいえ、チャレンゞ䌁画の短期間である皋床できたこずも確かです。地道に継続するこずで、出来おない郚分を埋めおいけるず思いたす。 未来ぞの劄想 -たずめにかえお- 自動化でできるこずはずこずん自動化ツヌルでの確認に任せお、人間でしか確認できない箇所を远求する。効率化で時間的な䜙裕を生み、結果ずしお人力でのテストの質の向䞊たで図るこずができれば理想的です。 珟段階ではただただ劄想です。ただ、コヌディングできない人間でもある皋床の自動化ができる時代になった今、劄想の実珟は決しお遠くない未来にあるのではずいう期埅感も持っおいたす。 チャレンゞ䌁画で察応した案件以倖での取り組みも含め、少しず぀でも歩みを進めおいこうず思いたす。
アバタヌ
こんにちは、KINTOテクノロゞヌズ倧阪拠点「Osaka Tech Lab」所属の䞭村です。 KINTOテクノロゞヌズは、トペタグルヌプの内補開発郚隊ずしお、車のサブスクリプションサヌビス「KINTO」をはじめずしたさたざたなモビリティサヌビスを開発を行っおいたす。 私たちの拠点は2025幎6月に梅田のノヌスゲヌトビルディングぞ移転し、珟圚は月に䞀床のペヌスで瀟倖向けの勉匷䌚「CO-LAB Tech Night」を開催しおいたす。1぀のテヌマを蚭定し、開発・デザむン・デヌタなど、職皮の垣根を越えたメンバヌが日々の取り組みや気づきを共有し合う勉匷䌚ずなっおいたす。 今回は、これたでの歩みず、次回Vol.4「生成AI × クリ゚むティブ」に぀いおご玹介したす。 CO-LAB Tech Nightの成り立ち もずもず、Osaka Tech Labには、 瀟倖の勉匷䌚やむベントで登壇経隓のあるメンバヌが䜕人かいたした。ただ、以前のオフィスは手狭で、瀟内でむベントを開けるようなスペヌスがありたせんでした。「倧阪から発信する堎を぀くりたいね」ずいう話は出おいたものの、なかなか圢にできずにいたした。 2025幎6月末の移転をきっかけに、念願のむベントスペヌスが敎い、 自分たちでもコミュニティを育おおいけるようになりたした。 関西では、 LINEダフヌ株匏䌚瀟様 をはじめ、 さくらむンタヌネット株匏䌚瀟様 、 株匏䌚瀟マネヌフォワヌド様 、 Sansan株匏䌚瀟様 など、さたざたな䌁業がコミュニティ掻動を展開しおいたす。 そうした盛り䞊がりを肌で感じながら、私たちももっず関西の䌁業やコミュニティの方々ずコラボレヌションしお、倧阪からIT業界を盛り䞊げおいきたい。 そんな思いから始たったのが「CO-LAB Tech Night」です。 Vol.1〜3の歩み Vol.1クラりド開発のリアルを共有 初回はクラりド開発をテヌマに、Osaka Tech Labメンバヌが登壇。アヌキテクチャ蚭蚈やIaC化の詊行錯誀を䞭心に、内補開発の珟堎感をそのたた䌝えたした。 Vol.2クラりド掻甚に圹立぀セキュリティ実践䟋 2回目はクラりドセキュリティを軞に、AWSやAzureなど各チヌムの知芋を共有。「攻めず守りをどう䞡立するか」ずいう実務的な問いを䞭心に議論したした。 Vol.3QA゚ンゞニアの圹割を再考する 3回目はQA品質保蚌をテヌマに開催。生成AI時代を迎えた自動化・テスト蚭蚈など、垞識が倉わり぀぀あるテストの圚り方を䞭心に語り合いたした。 芋えおきた課題ずこれから CO-LAB Tech Nightを続ける䞭で、関西ではただKINTOテクノロゞヌズのこずがあたり知られおいないず実感するこずが倚くありたす。「KINTOテクノロゞヌズっお倧阪にもあるんですね」ずお声がけいただくこずも倚く、Osaka Tech Labの認知は、ただただこれからだず感じおいたす。 珟状では、登壇者や運営メンバヌの呌びかけで参加者が集たるこずが倚く、どうしおも瀟員個人の぀ながりや発信力に支えられおいる郚分が倧きいのが実情です。䞀方で、CO-LAB Tech Nightやその他のむベントぞの出展などを通じお「倧阪にもこういう䌚瀟があるんだ」ず知っおいただく機䌚は確実に増えおきたした。 もずもず他拠点に比べおも亀流が倚く、メンバヌ間の距離も近い環境ですが、改めお「こういう芖点で仕事をしおいたんだ」ず気づく堎面が増え、お互いの理解をより深めるきっかけにもなっおいたす。 メンバヌの想いや行動をきっかけに始たったこの掻動を、組織ずしおの発信やコラボレヌションの仕組みずしお根付かせおいきたい。そしお関西の䌁業や、関西で働く方々ずずもに、倧阪からIT業界を盛り䞊げおいきたいず考えおいたす。 次回:生成AI × クリ゚むティブの可胜性ず珟圚地 次回のVol.4は、デザむナヌによるTikTok゚フェクト制䜜、むラストワヌクフロヌ、画像生成比范、AIを䜿ったキャラクタヌ衚珟など、実際にトペタグルヌプの内補開発で掻甚しおいる事䟋を玹介したす。 📅 2025幎10月24日金19:00〜21:30 📍 KINTO テクノロゞヌズ Osaka Tech Lab (倧阪駅盎結・ノヌスゲヌトビルディング) ▌申蟌・詳现はこちらのconnpassペヌゞをご確認ください。 https://kinto-technologies.connpass.com/event/369528/ https://www.youtube.com/watch?v=v1fFP5VZEF0 おわりに CO-LAB Tech Nightは、「話しおみたい」「聞いおみたい」ずいう声から䌁画が生たれた、Osaka Tech Labのカゞュアルな勉匷䌚シリヌズです。瀟内倖の人が぀ながり、孊び合う堎ずしお続けおいくこずで、倧阪発のITコミュニティずしお、ゆるやかに広がっおいけたらず思いたす。 関西で掻動する゚ンゞニア、デザむナヌ、PdMのみなさん、ぜひ気軜に遊びにきおください â–Œ KINTO テクノロゞヌズ Osaka Tech Labのコンセプトや働く人の様子 https://www.kinto-technologies.com/company/osakatechlab/ â–Œ Osaka Tech Labでは、゚ンゞニア・デザむナヌ・PdMなど耇数職皮で仲間を募集䞭です https://www.wantedly.com/projects/2069536
アバタヌ
Hello, I'm Nakamura from KINTO Technologies' Osaka Tech Lab. KINTO Technologies is Toyota Group's in-house development team, creating various mobility services including the car subscription service "KINTO." Our office relocated to North Gate Building in Umeda in June 2025, and we now host a monthly external study session called CO-LAB Tech Night. We set a theme for each session where members from various roles including development, design, data and more, share their daily efforts and insights across professional boundaries. In this article, I'll introduce our journey so far and our upcoming Vol.4 session: Generative AI × Creativity. The Origins of CO-LAB Tech Night Osaka Tech Lab has always had several members with experience presenting at external study sessions and events. However, our previous office was small, and we simply didn't have the space to accommodate events. While we talked about creating a platform to share from Osaka, we couldn't quite make it happen. The relocation at the end of June 2025 finally gave us the event space we'd been hoping for, enabling us to nurture our own community. In Kansai, companies like LY Corporation , SAKURA internet Inc. , Money Forward, Inc. , and Sansan, Inc. are actively building communities. Experiencing this vibrant ecosystem firsthand, we wanted to collaborate more with companies and communities in Kansai and energize the IT industry from Osaka. That's how CO-LAB Tech Night was born. Journey Through Vol.1–3 Vol.1 | Sharing the Reality of Cloud Development Our first session focused on cloud development, with Osaka Tech Lab members presenting. We shared the real-world challenges of architecture design and IaC implementation from our in-house development perspective. Vol.2 | Practical Security Examples for Cloud Utilization The second session centered on cloud security, sharing insights from teams using AWS, Azure, and other platforms. We discussed the practical question of how to balance innovation and security. Vol.3 | Reconsidering the Role of QA Engineers Our third session explored QA (Quality Assurance). We discussed evolving testing practices in the generative AI era, including automation and test design as conventional wisdom shifts. Challenges and the Road Ahead Through continuing CO-LAB Tech Night, we've realized that KINTO Technologies isn't wildely recognized in Kansai. We often hear, "Oh, KINTO Technologies has an Osaka office?" indicating that Osaka Tech Lab's recognition is still developing. Currently, participants often join through connections with speakers or organizers, meaning our reach still heavily depends on individual employees' networks and influence. However, through CO-LAB Tech Night and participation in other events, we're steadily increasing opportunities for people to learn about our company's presence in Osaka. While we've always had strong cross-team collaboration and close relationships compared to other offices, these sessions have created new moments of realization, like "I didn't know you approached work from that perspective," deepening our mutual understanding. We want to transform this activity, which began with members' passion and initiative, into an organizational mechanism for outreach and collaboration. And together with companies and professionals working in Kansai, we want to energize the IT industry from Osaka. Next: The Potential and Current State of Generative AI × Creative Vol.4 will showcase real-world examples from Toyota Group's in-house development, including TikTok effect creation by designers, illustration workflows, image generation comparisons, and AI-powered character expression. 📅 October 24, 2025 (Fri) 19:00–21:30 📍 KINTO Technologies Osaka Tech Lab (directly connected to Osaka Station, North Gate Building) â–Œ For registration and details, please check our Connpass page: https://kinto-technologies.connpass.com/event/369528/ https://www.youtube.com/watch?v=v1fFP5VZEF0 Closing CO-LAB Tech Night is a casual study session series born from the desire to talk and listen. We hope it will organically grow as an Osaka-based IT community where people inside and outside the company connect and learn together. Engineers, designers, and PdMs active in Kansai, please feel free to drop by! â–Œ Learn about KINTO Technologies Osaka Tech Lab's concept and people: https://dev-www.kinto-technologies.com/company/osakatechlab/ â–Œ Osaka Tech Lab is hiring engineers, designers, PdMs, and other roles! https://www.wantedly.com/projects/2069536
アバタヌ
はじめに QAグルヌプのMobileチヌムのokapiです。 「1週間、生成AIを䜿っおどこたで開発生産性を䞊げられるか」そんなチャレンゞ粟神に火が぀いた瀟内むベント「Vibe Coding Weekバむブコヌディングりィヌク」に、QAグルヌプも参戊したしたので、執筆させおいただきたす。 なお、この蚘事のカバヌ画像もAIで䜜成しおみたした。 Vibe Codingずは Vibe Codingずは、生成AIず人間の゚ンゞニアが協働しお行う新しい開発スタむルです。 AIが「コヌド生成」や「調査」ずいった重い䜜業を匕き受け、人間は「品質の怜蚌・改善」に集䞭するこずで、高品質か぀効率的な開発を行えたす。 「AIの力を最倧限に匕き出しながら、人間にしかできない䟡倀を提䟛する」——それがVibe Coding Weekです。この1週間で、AI掻甚の限界ず可胜性を䜓隓し、チヌム内のAI掻甚に察する理解を深めたす。 QAは䜕をやるのか 「開発生産性っお、QAに関係あるの」そう思われた方もいるかもしれたせん。 QAグルヌプでは日々、「自動化・業務改善・AI掻甚」に積極的に取り組んでいたす。 日々の業務で培ったノりハりを歊噚に、このVibe Coding Weekに挑戊するこずになりたした。 私はQAグルヌプの代衚ずしお参戊。 むベント開始の1ヶ月前から週次ミヌティングを重ね、「どうすれば成果を出せるのか」を培底的に議論したした。 その結果、QA業務を楜にする「3぀の自動化チャレンゞ」を実斜するこずに決定したした 取り組んだ3぀の自動化チャレンゞ 䞭叀車デヌタ䜜成の自動化ず、画面仕様ず実画面比范の自動化に぀いおは、担圓メンバヌが詳现蚘事を執筆予定です。ぜひ公開を楜しみにお埅ちください。 チャレンゞ 抂芁 効果 1. Appiumラむブラリのメゞャヌバヌゞョンアップ QA Mobileチヌムのテスト自動化で利甚しおいるAppiumのラむブラリを、メゞャヌバヌゞョン2぀分java-client: 7.6.0 → 9.0.0にアップデヌト。AIを掻甚しおリリヌスノヌト調査、修正タスク化、実装を高速化し、互換性のある呚蟺ラむブラリも同時曎新。 メンテナンス性の向䞊。今埌自動化予定のAppiumで行う画面比范に察応したaShotラむブラリピクセルパヌフェクト比范が䜿甚可胜に https://github.com/pazone/ashot 2. 䞭叀車デヌタ䜜成の自動化 QA Webチヌムのテストで必芁な䞭叀車のデヌタ䜜成をPlaywrightで自動化 埓来200台䜜成に玄2ヶ月かかっおいたが、自動化により工数を削枛。これたで手䜜業で行っおいた面倒な䜜業から解攟 3. 画面仕様ず実画面比范の自動化 QA Webチヌムのテストで手動で行っおいたExcel仕様曞ず実画面の比范をVS Codeで自動化。仕様曞から文字抜出→差分刀定→差分箇所衚瀺を自動化 テスト実斜の確認時間を削枛。目芖で探しおいた差分が䞀瞬でわかるように 各メンバヌの感想 メンバヌ 感想 倧島さん これたで地道に取り組んできたこずを発衚でき、さらに実案件ぞの展開の可胜性も芋えおきたず感じたした。通垞業務の䞭でAIを掻甚できたのも良かったです。 呂さん 今回の成果物は、今埌の案件業務に掻甚できそうです。 小林さん ClaudeCode、Copilot、Devinをそれぞれ䜿っおみお、性胜の違いをある皋床把握できたした。どれを䜿う堎合でも、調査や実装のスピヌドが人力よりも明らかに速い。 パンヌさん GitHub Copilotを䜿っおMCPのサヌバヌ構築を行い、Figma関連の理解も深たり、すべおの䜜業を完了できたした。ずおも満足しおいたす。 岡 皆さんが事前準備からしっかり取り組んでいたおかげで、3チヌムずも成果を出せおいたので、良いむベントでした。 成果ず孊び AI掻甚により、調査・修正䜜業のスピヌドず粟床が向䞊。 自動化によっお工数を削枛し、人的リ゜ヌスをより重芁な品質保蚌やテスト蚭蚈に集䞭できるようになった。 短期間で普段着手できなかった改善を実斜でき、AI掻甚文化の圢成にも぀ながりたした。 おわりに 今回のVibe Coding Weekでは、QA業務の自動化ず効率化に向けた3぀のチャレンゞを実斜し、短期間で倧きな成果を埗るこずができたした。 事前準備に1ヶ月かけた甲斐があり、むベント期間䞭は党力疟走。 この経隓で埗たノりハりは、今埌のQA業務に倧きく掻かされるはずです。 今埌も「自動化・業務改善・AI掻甚」を継続的に掚進するずずもに、匕き続き、色んなチャレンゞに挑戊しおいきたす。
アバタヌ
Introduction I'm okapi from the Mobile team in the QA Group. "How much can we boost development productivity using generative AI in one week?" With that challenging spirit ignited, the QA Group also joined the internal event Vibe Coding Week, and I'm writing this article to share our experience. By the way, the cover image for this article was also created using AI. What is Vibe Coding? Vibe Coding is a new development style where human engineers collaborate with generative AI. AI takes on heavy tasks like code generation and research, while humans focus on quality verification and improvement, which enables high-quality and efficient development. Maximizing the power of AI while delivering value that only humans can provide—that's what the Vibe Coding Week is all about. During this week, we experience the limits and potential of the AI use to deepen the team's understanding of AI adoption. What Does QA Do? Does development productivity really relate to QA? Some of you might have thought such question. The QA Group actively works on automation, workflow improvement, and AI utilization every day. Obtaining the know-how cultivated through daily work, we decided to take on this Vibe Coding Week challenge. I participated as a representative of the QA Group. Starting one month before the event, we held weekly meetings and thoroughly discussed how we can deliver results. As a result, we decided to implement three automation tasks to make QA work easier! The 3 Automation Tasks We Tackled One of the QA team members will write detailed articles about the automation to create used vehicle data and to compare a screen design on specification with an actually developed screen. Please look forward to the article release. Challenge Overview Effect 1. Major version upgrade of Appium Library Updated the Appium library used for test automation by the QA Mobile team by two major versions (java-client: 7.6.0 → 9.0.0). Leveraged AI to accelerate release note research, modification task creation, and implementation, while updating compatible peripheral libraries simultaneously. Improved maintainability. Now able to use the aShot library (pixel-perfect comparison) compatible with screen comparison planned for future Appium automation! https://github.com/pazone/ashot 2. Used vehicle data creation automation Automated the creation of used vehicle data needed for testing by the QA Web Team using Playwright Previously, creating data for 200 vehicles took about 2 months, but automation reduced the team's workload. Freed from the tedious manual task! 3. Comparison automation between screen design on specification and actual screen Automated the comparison between screen design on specification in Excel and actually developed screen with VS Code that used to be done manually by the QA Web Team. Automated a process from extracting texts from specifications, identifying differences between design on specification and actual screen, and displaying where the differences are identified. Reduced verification time during the test phase. Differences that used to be checked visually can now be identified instantly! Team Members' Impressions Member Impression Oshima-san I was able to present what we had been constantly working on and expect it to be applied for actual projects. It was also good to be able to utilize AI in regular work. Lu-san The deliverables from this time seem useful for future project work. Kobayashi-san By using ClaudeCode, Copilot, and Devin respectively, I was able to grasp their performance differences to some extent. Whichever I used, the speed of research and implementation is definitely faster than manual work. Pann Nu-san I used GitHub Copilot to build an MCP server, which brought me an opportunity to deepen my understanding of Figma-related topics and complete all the work. I'm very satisfied. Oka Thanks to everyone's thorough preparation from the start, all three teams were able to deliver results, so it was a great event. Results and Learnings AI utilization increased the speed and accuracy of research and modification tasks. Automation reduced workload, allowing humans to focus on more important quality assurance and test design. We were able to make improvements that we couldn't normally tackle in a short amount of time. This contributed to forming a corporate culture where we automate routine tasks by leveraging AI. Conclusion In this Vibe Coding Week, we implemented three tasks aimed at automating and improving efficiency of QA work, achieving significant results in a short term. The one month of preparation paid off, and we sprinted at full speed during the event. The know-how gained from this experience should greatly benefit our future QA work. We will continue to promote automation, workflow improvement, and AI utilization continuously, and keep addressing various challenging tasks.
アバタヌ