u-blox ZED-X20P 用のアプリを開発中です.
MADOCA も入れてみました。MADO~CA分かりませんが。

Centimeter Level Augmentation Service & Real Time Kinematic
u-blox ZED-X20P 用のアプリを開発中です.
MADOCA も入れてみました。MADO~CA分かりませんが。
この暑さでスマホの熱暴走だと思いますが、測点名の入力でおかしくなったとユーザーから連絡がありました。幸いログデータには記録されていましたので、次のように変換してお送りしました。
(図は、鹿児島県霧島市でのデータで再計算しました。)
国土地理院の計算サイトを利用したり時間も掛かりましたので、VBAでプログラムを作りました。
あんまりカッコ良くはありませんが、中身はちょっと考えました。
「PatchJGD(標高版)」のAPI(Application Programming Interface)が止まってるのか、私のプログラムのバグなのか分かりませんが、標高が返ってきません。地理院に問い合わせ中です。
頭の体操になりました。必要な方はメールかフォームでどうぞ。無料です。
この辺で、アプリのインストール方法を再掲します。
(KabutoMLRTKWをインストールする場合の例)
とりあえず、インストール
↓(緑四角点々の)アイコンを長押し *KabutoMLRTKWの場合です。
↓アプリ情報
↓権限 位置情報 付近のデバイス を許可
(新バージョンから許可の設定は不要になります)
↓
アイコンをタップして立ち上げる
↓
KabutoMLRTKWのマウントポイント等入力(確認後、保存してください)
↓
Bluetoothを選択して、次の画面へ
↓
パラメータ読み込み
↓
ここで一旦アプリを閉じる
↓
PCとアンドロイドをUSBでつなぐ
↓
USBの使用方法でファイル転送を選ぶ
↓
PCに内部共有ストレージが出るのでダブルクリック
↓
Androido →data→jp.clas.mlrtkw.kabuto→files→Documents と進める。
↓
Documentsの中に、semidyna.txt と geoid.txt を入れる。
これで、アプリが使えるようになります。
メール添付ファイルは圧縮してあります。解凍してデスクトップなどに置いてください。
以下、インストール方法です。機種によりメッセージが異なる場合があります。
アンドロイドスマホとPCをUSBでつなぎます
スマホ側 USBの使用方法 が出てきますので、ファイル転送にチェック
PC側 内部共有ストレージが開きますので、ダブルクリックして開きます
その中に、解凍したファイル KabutoMLRTKW_… をドロップイン(コピペでも可)
一旦、USB を外します
スマホ側 FVファイルエクスプローラーを起動
内部共有ストレージをタップ
KabutoMLRTKW_... をタップ
不明なアプリのインストールで、この提供元のアプリを許可、をON
(この辺は機種によって異なるかも)
インストール
後はメッセージに従ってインストール
アプリをスキャンしない、でいいです
ホーム画面の緑色の長方形点々のアイコンを長押し
アプリ情報 権限 位置情報:アプリの使用中のみ許可 付近のデバイス:許可する
(新アプリから↑の許可設定は不要になります)
ホーム画面に戻り、アイコンをタップ
一番下の Paired devices のどれかをタップ
パラメータ読み込みボタンをタップ
パラメータ読み込み完了になったら、一旦アプリを閉じる
PC と USB でつなぐ
USB使用方法 ファイル転送
PC側 内部共有ストレージをダブルクリック
Android → data → jp.clas.mlrtkw.kabuto → files → Documents の順に開く
この中に、semidyna.txt と geoid.txt を入れる
(PC 版 KabutoDynaEXE で作成したファイルです。ダウンロードコーナーにもあります)
これでインストール完了。お疲れ様でした。
建設現場で設備の位置がわからず困ったことはありませんか?
AI-RTK Vision Mapper は、YOLOv8ディープラーニングとRTK高精度測位を融合した革新的Androidアプリです。
何ができる?
カメラで物体を検出すると、自動で ±2cm 精度(RTK)の位置情報を記録
建設・農業・測量現場で 何が・どこに・いつ 瞬時にデータ化
なぜ革新的?
従来の手作業測量がAI自動化で10倍?高速
オフライン動作でネット環境不要(CLAS版)
99%の検出精度で見落としゼロ
スマートシティ・Industry4.0市場は2030年に50兆円規模予測。当アプリはその基盤技術として無限の可能性を秘めています。
AIの眼で見て、GNSSの精度で記録する。それが未来の現場管理です。
RTK + YOLOv8という物体検出AIモデルをAndroidアプリに組み込んで、カメラで物体をリアルタイムに検出させる処理(ディープラーニングのアプリ開発)がもうすぐ完成です。
[RTK & CLAS]
↓
[CameraX]
↓
+————-+
ImageProxy ← カメラ画像
+————-+
↓
+———————–+
MyImageAnalyzer
├─ Bitmap変換
├─ ByteBuffer変換
└─ YoloV8Detector
+———————–+
↓
+———————–+
TFLite YOLOv8 モデル
出力: [1, 84, 8400]
+———————–+
↓
+———————–+
parseOutput()
→ BoundingBoxData[]
+———————–+
↓
+———————–+
OverlayView (描画)
+———————–+
2025年7月28日から8月31日にかけて、みちびきはCLASサービスの向上を目指し、L6D信号の送信パターン(Transmit Pattern 1または2)の検証を行うということですが、すでにCLASは実用化されているのに何のために検証を行うのか、Grok(xAI)に質問しました。以下に回答を掲載します。
なお、AI の回答には間違いが含まれている場合がありますので、疑問に感じたことは必要に応じて事実確認や最新情報のチェックをお勧めします。特に、みちびきの公式発表や技術文書(例:内閣府宇宙開発戦略推進事務局や準天頂衛星システムの公式サイト)で補足情報を確認すると、より信頼性が高まると思います。
1. 検証の主な目的
CLASのサービス向上を目指すこの検証は、具体的には以下の目的を持っています:
2. なぜ実用化後に検証が必要なのか?
CLASが実用化されているとはいえ、衛星測位システムは運用環境や技術進化に応じて継続的な改善が必要です。以下のような理由から、検証が行われます:
3. 送信パターン(Transmit Pattern 1または2)とは?
4. 検証がユーザーやサービスに与える影響
5. 結論
2025年7月28日から8月31日のL6D信号の送信パターン検証は、CLASの測位精度の向上、補強対象衛星の拡大、信頼性強化、および将来のサービス拡張を目的としています。CLASが実用化済みであっても、技術進化や多様なユーザーニーズに対応するため、継続的な改善が不可欠です。この検証を通じて、自動運転や測量などの分野でさらに高性能な測位サービスが提供されることが期待されます。
PC版RTK/CLASアプリをリニューアルしました。
・地図表示は地理院地図です。
・RTKはNTTとSoftBankのハンドオーバーに対応しています。
・CLASはローカルで(インターネットに接続しないで)今期から元期に変換できます。
パラメータファイルは、国土地理院のHPからダウンロードして、KabutoDynaEXE7.01 で変換したものをparameterフォルダーに入れてください。
https://www.gsi.go.jp/sokuchikijun/semidyna.html
SemiDyna2025.par
https://service.gsi.go.jp/kiban/app/geoid/
JPGEO2024.isg
・NMEAと平面直角座標ファイルを保存できます。
・基準点の探索(逆打ち)ができます。
・簡易ローカライゼーション機能で、最寄りの基準点の座標に一致させられます。
なお、clas.jp公式アプリは高精度な測位が可能ですが、測量法に準拠した測量にはご利用いただけません。
※この画像には、Tera Term(Telnetやシリアル接続に対応したオープンソースのターミナルエミュレーター)の画像も含まれています。
「カメラで撮った映像からAIが猫を見つけてくれるアプリ」を作りました。ここまでの道のりは、大きく3つの部分に分かれます。
1.カメラの映像をAIに渡せる形にする (MyImageAnalyzer の役割)
まず、スマホのカメラはリアルタイムでたくさんの映像(画像)をAIに見せます。しかし、AIは「写真」そのままの形では理解できません。AIが理解できる「データ」の形に変換する必要があります。
カメラからの映像を受け取る:
ImageAnalysis という機能を使って、カメラからどんどん送られてくる映像を受け取ります。受け取った映像は ImageProxy という一時的な形なので、これを普通の「画像データ」(Bitmap)に変換します。
AIが理解できる「数値」に変換:
この Bitmap の画像を、AI(今回のYOLOv8モデル)が処理できる「数値の羅列」(ByteBuffer)に変換します。このとき、画像のサイズをAIが期待する大きさ(例:640×640ピクセル)に調整したり、色をAIが理解しやすいように並べ替えたりする「前処理」を行います。ここで MyImageAnalyzer が大活躍します! MyImageAnalyzer はカメラから画像を受け取り、AIに渡すための変換を全て担当しています。
2.AIモデルで「これは猫だ!」と判断する (YoloV8Detector の役割)
AIモデルの準備:
事前に訓練しておいたAIモデル(.tflite ファイル)をアプリに組み込んでおきます。これは、何万枚もの猫の画像を学習して「猫とはこういう形だ!」と覚えた賢い先生のようなものです。YoloV8Detector がこのAIモデル(先生)を準備し、AIに「画像を分析して」と指示を出す役割を担っています。
「推論」と「結果の読み取り」:
AIに変換した画像データ(ByteBuffer)を渡すと、AIはそれを分析して「推論」を行います。推論の結果は、AI独自の「数値の羅列」で返ってきます。ここには、「このあたりに猫っぽいものがあるぞ、自信度はこれくらい、種類はこれだ」というような情報が隠されています。YoloV8Detector は、このAIの数値の羅列を人間が理解できる形(「座標」や「信頼度」、「クラスID」)に読み解きます。
不要な検出結果を整理する (NMS):
AIは「ちょっとでも猫っぽいもの」を見つけると、たくさんの候補を出してきます。しかし、同じ猫に何個も四角が表示されても困ります。「NMS (Non-Maximum Suppression)」という技術を使って、たくさんの候補の中から、最も自信度が高く、重なっていない「代表」の四角だけを選び出します。
クラスIDを名前に変換:
AIは「これはクラスIDが62番だ」と教えてくれますが、私たちはそれが「猫」であることを知りたいです。そこで、あらかじめ「62番は猫」というリストを用意しておき、AIの「62番」を「猫」という名前に変換して表示できるようにしました。
3.画面に「猫」の四角を表示する (OverlayView の役割)
AIが「猫だ!」と判断した情報(どこに、何の種類の猫が、どれくらいの自信度でいるか)を、カメラの映像の上に表示します。
透明なシートを重ねる:
カメラの映像が表示されている画面の上に、透明なシート(OverlayView)を重ねます。このシートには、好きなものを描くことができます。
四角とラベルを描く:
OverlayView は、YoloV8Detector から渡された猫の位置情報(座標)を受け取ります。その座標に合わせて、猫の周りに四角い枠を描き、その枠の近くに「猫 (自信度)」というラベルを表示します。最初はAIへの「前処理」や、AIからの「結果の読み取り」がうまくいきませんでした。AIが理解できる言葉と、私たちが理解できる言葉の間に通訳がいなかったような状態です。これを修正し、AIが意味のある結果を返すようになりました。
最初はバウンディングボックス(四角)が表示されなかった:
AIは結果を出しているのに、画面に四角が表示されませんでした。一番の原因は、カメラの映像を表示する PreviewView という部品を、画面のレイアウトに追加し忘れていたことでした。透明なシートがあっても、その下に映像がなければ何も見えません。また、四角を描く透明なシート(OverlayView)が、映像とピタッと合うように、サイズ情報を正しく渡せていない問題もありました。これらを修正し、四角が表示されるようになりました。
「Class 62」ではなく「猫」と表示したい:
これは、AIが数字で返す「クラスID」を、人間がわかる「ラベル名」(”cat”)に変換するリストを YoloV8Detector に追加することで解決しました。
「close()」「detect()」「saveImages」「getInputSize()」などのエラー:
これらは、それぞれの部品(クラス)が持つべき「機能(メソッド)」がまだ作られていなかったり、他の部品からその機能を使えるようにする「許可(public修飾子)」が設定されていなかったり、新しい機能(saveImages)を導入したときに、その情報を他の部品に伝える「引数」が足りなかったりしたことが原因でした。一つずつ足りない機能を追加したり、設定を修正したりして、エラーを解決していきました。
猫が検出された画像だけを保存したい:
これは、MyImageAnalyzer で「AIが猫だと判断した結果」が出たときだけ、元の画像を保存するように条件を追加することで解決しました。まとめると、このアプリは、カメラから画像を受け取り、それをAIが理解できる形に変換し(MyImageAnalyzer)、訓練済みのAIモデルで分析させ(YoloV8Detector)、その結果を人間が見てわかるように画面に描画する(OverlayView)という連携プレーで動いています。各部品がそれぞれの役割をきちんと果たし、情報が正しく連携されることで、最終的に「猫検出アプリ」が完成しました。
次は、CLASやRTKと連動し、どこで猫を発見したかという位置情報を追加します。
いつもCLAS RTKアプリをご利用いただき、誠にありがとうございます。
皆様に支えられてきたことに心より感謝申し上げます。
また、このたび皆様のご要望にお応えし、Windows版も完成いたしました!
さて、これまで無料でご提供しておりましたCLAS RTKアプリですが、本日より有料サービスとさせていただくことになりました。
料金は、アプリ1本につき月額2,200円(税込)、または年額13,200円(税込)となります。
お申し込みは、clas.jp ソフトウェアライセンス申し込み よりお願いします。
なお、現在ご利用中のアプリはそのままお使いいただけますが、不具合対応以外のサポートはご利用いただけませんので、何卒ご理解賜りますようお願い申し上げます。
今後ともCLAS RTKアプリをどうぞよろしくお願いいたします。
CLAS代表 田中龍児