情報開発と利活用

情報開発と利活用

PR

×

Profile

令和維新

令和維新

Category

カテゴリ未分類

(112)

連絡

(24)

交流会

(27)

セミナー

(29)

参考情報

(138)

オフ会

(36)

on-line報告会

(13)

翻訳ビジネス

(8)

情報開発

(270)

ビッグデータ

(84)

ブロックチェーン

(242)

人工知能

(480)

IOT

(296)

仮想通貨

(844)

コンテンツ

(120)

政治経済

(1860)

先端技術

(955)

DITA

(50)

テレワーク

(28)

UX

(0)

文書管理

(8)

テクニカルライテイング

(17)

学習

(9)

訓練

(1)

XMLソリューション

(3)

メタバース

(99)

Web3

(66)

投資

(172)

IoT

(32)

投資信託

(1)

ビットコイン

(756)

イーサリアム

(155)

NFT

(41)

オンライン

(0)

受動収入

(14)

ソーシャルメデイア

(0)

DAO

(2)

DeFi

(70)

暗号通貨

(168)

トークノミクス

(21)

アルトコイン

(223)

空中投下

(16)

スマート契約

(4)

ステーブルコイン

(42)

(5)

生成AI

(5)

SCM

(4)

ウオレット

(9)

不労所得

(57)

セキュリテイ

(4)

ミームコイン

(50)

CBDC

(5)

PoS

(3)

PoW

(1)

ETF

(12)

仮想通貨ETF

(1)

予言

(7)

裁定取引

(1)

GameFi

(5)

マイニング

(9)

RWA

(21)

DePIN

(18)

SWFT

(1)

WLFI

(1)

アービトラージ

(7)

XRP

(57)

大統領選

(4)

BCH

(1)

取引ボット

(17)

トレーデイング

(24)

不動産

(1)

詐欺

(4)

貿易戦争

(1)

医療

(1)

金融

(2)

TEZOS

(1)

CARDANO

(2)

カルダーノ

(3)

ステーキング

(5)

チェーンリンク

(1)

開発

(0)

HEDERA

(1)

スマートマネー

(0)

流動性

(0)

AIエージェント

(8)

401k

(1)

国際送金

(1)

solano

(1)

AI

(1)

暗号資産

(39)

機関投資家

(1)

Keyword Search

▼キーワード検索

Shopping List

お買いものレビューがまだ書かれていません。
2026.05.04
XML
カテゴリ: DeFi

​​​

When AI Agents Become DeFi’s Main Users

AI エージェントが DeFi の主要ユーザーになる時





Written by Bradley Peak
執筆:ブラッドリー・ピーク
Edited by Shilpa Lama
編集:シルパ・ラマ

02 April 202608:08 UTC
2026年4月2日 08:08 UTC

#Cryptocurrency Market News
#暗号通貨市場ニュース

If autonomous agents become the dominant users of DeFi, blockchains start to do a different job. They operate as coordination and settlement systems for software rather than spaces driven by human timing, sentiment, and speculation.
もし自律エージェントが DeFi の主要ユーザーになれば、ブロックチェーンは別の役割を果たし始める。 それは、人間のタイミング・感情・投機によって動く空間ではなく、 ソフトウェアのための調整・決済システムとして機能するようになる。

Federico Variola, CEO of Phemex, says this could improve how on-chain activity develops. He says:
Phemex の CEO、Federico Variola は、 これはオンチェーン活動の発展を改善し得ると語る。彼はこう述べている:

“Recently, blockchain ecosystems have struggled because many tokens have failed to reach escape velocity, and much of the activity has turned into PvP trading, where users try to extract value from each other.”
「最近、ブロックチェーンエコシステムは苦戦している。 多くのトークンが脱出速度に達せず、 活動の多くが PvP トレーディング、つまりユーザー同士が価値を奪い合う場になってしまっている。」

In his view, “agents may behave in a more cooperative way rather than an extractive one, simply because they tend to act more rationally than human participants.”
彼の見解では:「エージェントは人間の参加者より合理的に行動するため、 価値を奪い合うのではなく、より協調的に振る舞う可能性がある。」

Dmitry Lazarichev, co-founder of Wirex, focuses on how this changes behavior:
Wirexの共同創業者Dmitry Lazarichevは、これが振る舞いをどう変えるかに注目する:

“Once agents become the main actors, the chain starts behaving less like a marketplace of people and more like a piece of machine infrastructure.”
「エージェントが主要なアクターになると、 チェーンは人間の市場ではなく機械インフラとして振る舞い始める。」

“Activity becomes continuous: agents don’t wait for market hours, they don’t get tired, and they don’t trade on mood.”
「活動は連続的になる。エージェントは市場時間を待たないし、 疲れないし、気分で取引しない。」

That activity increases efficiency while introducing new stress points. If agents rely on similar inputs, Lazarichev says:
この活動は効率を高める一方で、新たなストレスポイントも生む。 もしエージェントが同じ入力に依存するなら、Lazarichev はこう警告する:

“You can get crowded behaviour and sharp feedback loops,” with rising pressure around “blockspace, fee dynamics, MEV, and the quality of execution guarantees.”
「群集行動や鋭いフィードバックループが起き得る。」 そして圧力は「ブロックスペース、手数料のダイナミクス、MEV、 実行保証の質」に集中する。

Fernando Lillo Aranda, Marketing Director at Zoomex, argues that the transition goes deeper. He says:
Zoomexのマーケティングディレクター、Fernando Lillo Arandaは、この転移はもっと深いと主張する。彼が言うのは下記の通り:

“When AI agents become the dominant participants in a blockchain ecosystem, we transition from a user-driven market structure to a system of autonomous economic coordination.”
「AI エージェントがブロックチェーンエコシステムの主要参加者になると、 市場構造はユーザー駆動から自律的な経済調整システムへと転移する。」

In that environment, blockchains start operating as execution systems for machine-native strategies.
その環境では、ブロックチェーンは 機械ネイティブな戦略の実行システム として稼働し始める。

Pauline Shangett, CSO at ChangeNOW, corroborates:
ChangeNOWのCSO、Pauline Shangettもこれを裏付ける:

“The network no longer serves humans, it hosts algorithms that humans can no longer supervise in real time.”
「ネットワークはもはや人間に奉仕しない。 人間がリアルタイムで監督できないアルゴリズムをホストするようになる。」

In exclusive interviews with these four crypto executives, BeInCrypto examined how DeFi changes as AI agents become its main users.
これら4名の暗号資産業界リーダーへの独占インタビューで、BeInCryptoはAIエージェントがDeFiの主要ユーザーになったとき、DeFi がどう変わるのかを検証している。

Agentic Liability Has No Clean Answer Yet
AIエージェントの責任問題には、まだ明確な答えがない

If AI agents can execute transactions, deploy contracts, or move funds autonomously, liability becomes harder to pin down when something goes wrong.
もしAI エージェントが取引を実行し、コントラクトを実装し、資金を自律的に動かせるようになると、何か問題が起きたときに誰が責任を負うのかを特定するのが難しくなる。

Lazarichev says autonomy cannot serve as an excuse.
Lazarichevは、自律性は言い訳にはならないと言う。

“The key point is that ‘the agent did it’ can’t become a liability loophole,” he says.
「『エージェントがやった』というのが責任逃れの抜け道になってはならない。」と彼は言う。

In his view, an agent still acts “under someone’s authority, with permissions and limits set by a person or an organisation.” That puts the focus on “who deployed it, who configured it, who benefits from it, and who provided the model and the execution environment.”
彼の見解では、エージェントは依然として 「誰かの権限の下で、誰か(個人または組織)が設定した権限と制限のもとで」行動している。だから焦点はこうなる:誰がそれを実装したのか、誰が設定したのか、誰が利益を得るのか、誰がモデルと実行環境を提供したのか

He says the response will rely on familiar standards.
彼は、対応は既存の標準に依存すると述べる。

“If you deploy an autonomous system that can move value, you should be expected to have basic safeguards in place,” including “permissioning, spending limits, transaction simulation, circuit breakers, and audit logs.”
「価値を動かせる自律システムを実装するなら、 基本的な安全策を備えていることが期待されるべきだ。」その安全策には以下が含まれる:権限管理、支出上限、トランザクションのシミュレーション、サーキットブレーカー、監査ログ

Shangett argues that current legal thinking is still relying on outdated foundations:
Shangett は、現在の法的思考は古い前提に依存していると主張する。
“We already have laws. They’re just 30 years old and built for a world where software couldn’t talk back. The. frameworks people keep citing ETHOS, NIST, the new PLD, they’re all patches on a system that wasn’t built for this. We need something new. And pretending otherwise is just reckless.”
「法律はすでに存在する。でもそれらは 30 年前のもので、 ソフトウェアが反応する世界を前提にしていない。 ETHOS、NIST、新しい PLD… みんなが引用する枠組みは、この状況に合っていないシステムへのパッチにすぎない。 私たちには新しいものが必要。 そうでないふりをするのは無責任だ。」

She also points to a deeper issue. “Agency law assumes the agent can be sued. Your AI agent can’t. It has no wallet, no insurance, no legal personality.”
彼女はさらに深い問題を指摘する。「代理法は、代理人が訴えられることを前提にしている。 でもあなたのAIエージェントは訴えられない。ウォレットも保険も法的人格も持っていない。」

Identity Stops Meaning Human Only
「身元=人間」という前提は崩れる

As more autonomous systems operate on-chain, identity, too, takes on a different role. Networks need to determine what kind of actor they are interacting with and what that actor is allowed to do.
より多くの自律システムがオンチェーンで動くようになると、身元も別の役割を持つようになる。ネットワークは、どのような種類のアクターと相互作用しているのか、そしてそのアクターが何を許可されているのかを判断する必要がある。

Lazarichev says that “DID can help, but it won’t solve ‘human vs bot’ in a clean, binary way.”
Lazarichev はこう述べる:
Lazarichev はこう述べる:「DID は役に立つが、『人間 vs ボット』を きれいな二分法で解決することはできない。」

In his view, that distinction does not capture how these systems work. “Many bots will be legitimate participants,” he says. “What matters is being able to establish what type of actor something is, and what level of assurance sits behind it.”
彼の見解では、その区別はシステムの実態を捉えていない。「多くのボットは正当な参加者になる。 重要なのは、そのアクターがどのタイプで、 どのレベルの保証を持っているかを確立できることだ。」

That leads to more defined access controls. “The more realistic model is tiered access: different credentials for different privileges,” Lazarichev says.
これは、より明確なアクセス制御につながる。「現実的なモデルは階層化されたアクセス: 特権ごとに異なる資格情報を持つことだ。」と、Lazarichevは言う。

He adds that identity systems will need to work alongside behavioral monitoring, especially when agents handle higher-value actions.
彼はさらに、身元システムは振る舞い監視と併用される必要があると述べる。 特にエージェントが高額のアクションを扱う場合はなおさら。

Lillo Aranda agrees. “In a machine economy, the ‘user’ is an agent – so reliability, determinism, and composability replace simplicity as design priorities,” he says.
Lillo Aranda も同意する。「機械経済では、「ユーザー」はエージェントだ。 だから設計の優先事項は、シンプルさではなく 信頼性・決定性・構成可能性になる。」と彼は言う。

Shangett also reinforces this point. “The bots aren’t the problem anymore. The agents are.”
Shangett もこの点を強調する。「もはや問題はボットではない。エージェントだ。」

All three expert views point to a model where identity focuses on role, permissions, and accountability.
3 人の専門家の見解はすべて、身元が役割・権限・結果責任に焦点を置くモデルを示唆している。

==============================

インターネット・コンピュータランキング
============================== ネットサービスランキング
==============================


























お気に入りの記事を「いいね!」で応援しよう

Last updated  2026.05.04 10:34:07
コメント(0) | コメントを書く


【毎日開催】
15記事にいいね!で1ポイント
10秒滞在
いいね! -- / --
おめでとうございます!
ミッションを達成しました。
※「ポイントを獲得する」ボタンを押すと広告が表示されます。
x
X

© Rakuten Group, Inc.
X
Create a Mobile Website
スマートフォン版を閲覧 | PC版を閲覧
Share by: