もう迷わない!PyTorch FX「delete_submodule」を使ったモデル最適化の代替手法
torch.fx
は、PyTorch の nn.Module
をグラフ形式の中間表現 (IR) に変換し、それを操作・最適化するためのツールです。GraphModule
は、このグラフと、グラフから生成された forward
メソッドを持つ nn.Module
のインスタンスです。
delete_submodule()
メソッドの役割は以下の通りです。
-
対象のサブモジュールの削除:
GraphModule
は、元のnn.Module
が持っていたサブモジュール(例:self.conv1
,self.linear
など)を属性として保持しています。delete_submodule()
を呼び出すと、指定されたパス(例:'conv1'
)にあるサブモジュールがGraphModule
の属性から削除されます。 -
グラフ内のノードとの関連: ただし、
delete_submodule()
は、そのサブモジュールに対応するグラフ内のノード(通常call_module
ノード)を自動的に削除するわけではありません。これは重要な点です。もしグラフ内で削除されたサブモジュールへの参照が残っている場合、グラフの実行時にエラーが発生する可能性があります。
具体的な使用例と注意点
例えば、以下のような nn.Module
があるとします。
import torch
import torch.nn as nn
from torch.fx import symbolic_trace
class MyModule(nn.Module):
def __init__(self):
super().__init__()
self.linear1 = nn.Linear(10, 5)
self.linear2 = nn.Linear(5, 2)
def forward(self, x):
x = self.linear1(x)
x = self.linear2(x)
return x
model = MyModule()
graph_module = symbolic_trace(model)
この graph_module
から linear1
を削除したい場合、delete_submodule('linear1')
を呼び出します。
graph_module.delete_submodule('linear1')
しかし、これだけでは不十分です。 delete_submodule()
は graph_module
の属性から linear1
を削除するだけで、グラフ内の linear1
を呼び出しているノードはそのまま残ります。そのため、通常は delete_submodule()
を呼び出す前に、あるいは同時に、グラフ内の対応するノードも削除または置き換える必要があります。
AttributeError: 'GraphModule' object has no attribute 'xxx'
エラーの原因
delete_submodule()
は、GraphModule
オブジェクトが持つ属性としてのサブモジュールを削除します。しかし、グラフ内のノード(call_module
ノード)は、そのサブモジュールを呼び出すための参照を持っています。サブモジュールを削除したにもかかわらず、グラフ内のノードがそのサブモジュールを呼び出そうとすると、このエラーが発生します。
例
import torch
import torch.nn as nn
from torch.fx import symbolic_trace
class MyModule(nn.Module):
def __init__(self):
super().__init__()
self.linear1 = nn.Linear(10, 5)
self.linear2 = nn.Linear(5, 2)
def forward(self, x):
x = self.linear1(x) # linear1 を呼び出すノードがある
x = self.linear2(x)
return x
model = MyModule()
graph_module = symbolic_trace(model)
# linear1 サブモジュールを削除
graph_module.delete_submodule('linear1')
# この時点で graph_module.linear1 は存在しない
# しかし、グラフ内には linear1 を呼び出すノードが残っている
print(graph_module.graph)
# graph():
# %x : [#users=1] = placeholder[target=x]
# %linear1 : [#users=1] = call_module[target=linear1](args = (%x,), kwargs = {}) # ここに参照が残っている
# %linear2 : [#users=1] = call_module[target=linear2](args = (%linear1,), kwargs = {})
# return linear2
# グラフを実行しようとするとエラー
# graph_module(torch.randn(1, 10)) # AttributeError: 'GraphModule' object has no attribute 'linear1'
トラブルシューティング
delete_submodule()
を呼び出す際は、必ずグラフ内の対応するノードも適切に処理する必要があります。これは通常、以下のいずれかの方法で行われます。
- ノードの置き換え
該当するcall_module
ノードを別の操作(例:call_function
ノード、別のcall_module
ノード)に置き換えます。例えば、特定のモジュールを恒等関数に置き換えたり、新しいモジュールに差し替えたりする場合です。 - ノードの削除
該当するcall_module
ノードをグラフから削除します。
具体的なコード例(ノードの置き換え):
import torch
import torch.nn as nn
from torch.fx import symbolic_trace, Graph, Node
class MyModule(nn.Module):
def __init__(self):
super().__init__()
self.linear1 = nn.Linear(10, 5)
self.linear2 = nn.Linear(5, 2)
def forward(self, x):
x = self.linear1(x)
x = self.linear2(x)
return x
model = MyModule()
graph_module = symbolic_trace(model)
# グラフ内のノードをイテレートし、linear1 のノードを探す
for node in graph_module.graph.nodes:
if node.op == 'call_module' and node.target == 'linear1':
# linear1 ノードの出力を、その入力に直接つなぎ変える
# これにより、linear1 がスキップされる
node.replace_all_uses_with(node.args[0])
# ノードをグラフから削除
graph_module.graph.erase_node(node)
break # 見つけたらループを抜ける
# サブモジュールを削除
graph_module.delete_submodule('linear1')
# グラフの再コンパイル(重要!)
graph_module.recompile()
print(graph_module.graph)
# graph():
# %x : [#users=1] = placeholder[target=x]
# %linear2 : [#users=1] = call_module[target=linear2](args = (%x,), kwargs = {}) # linear1 が消えている
# return linear2
# エラーなく実行できる
output = graph_module(torch.randn(1, 10))
print(output.shape) # torch.Size([1, 2])
KeyError: 'xxx'
エラーの原因
delete_submodule()
に存在しないサブモジュールパスを渡した場合に発生します。
例
graph_module.delete_submodule('non_existent_module') # KeyError: 'non_existent_module'
トラブルシューティング
削除しようとしているサブモジュールパスが、実際に GraphModule
内に存在するかを確認してください。GraphModule
のサブモジュールは named_modules()
や children()
メソッドで確認できます。
for name, module in graph_module.named_modules():
print(name)
グラフの不整合によるランタイムエラーや予期せぬ挙動
エラーの原因
delete_submodule()
自体はエラーを出さないものの、サブモジュールを削除した後のグラフのロジックが破綻している場合に発生します。例えば、あるサブモジュールを削除したが、その出力が別のモジュールの入力として期待されているのに、代替のロジックが提供されていない場合などです。
例
linear1
を削除し、その結果 linear2
が linear1
の出力ではなく、別の(適切ではない)テンソルを入力として受け取ってしまう場合など。
- テストケースの追加
変更後にモデルが期待通りの出力を生成するかどうかを検証する厳密なテストケースを追加します。 - ステップバイステップのデバッグ
グラフの各ノードがどのような入力を受け取り、どのような出力を生成しているかをデバッグします。 - グラフの可視化
GraphModule
のグラフを可視化(例:graph_module.graph.print_tabular()
や Graphviz など)して、変更後のデータフローが意図通りになっているかを確認します。
例1: サブモジュールを削除し、その機能をスキップする
この例では、あるサブモジュール(linear1
)を削除し、そのサブモジュールが行っていた処理をグラフから完全にスキップさせます。つまり、linear1
の入力が直接 linear2
に渡されるように変更します。
import torch
import torch.nn as nn
from torch.fx import symbolic_trace, Graph, Node
# 1. 元のモデルの定義
class MyModule(nn.Module):
def __init__(self):
super().__init__()
self.linear1 = nn.Linear(10, 5) # 削除対象のモジュール
self.relu = nn.ReLU()
self.linear2 = nn.Linear(5, 2)
def forward(self, x):
x = self.linear1(x)
x = self.relu(x)
x = self.linear2(x)
return x
print("--- 元のモデルの構造 ---")
model = MyModule()
print(model)
# MyModule(
# (linear1): Linear(in_features=10, out_features=5, bias=True)
# (relu): ReLU()
# (linear2): Linear(in_features=5, out_features=2, bias=True)
# )
# 2. モデルをFXでトレースしてGraphModuleを生成
graph_module = symbolic_trace(model)
print("\n--- トレース後のグラフ (削除前) ---")
graph_module.graph.print_tabular()
# Node Op Target Arg Kwarg
# --------------------- ---------- -------- ------------ -------
# x placeholder x () {}
# linear1 call_module linear1 (x,) {}
# relu call_module relu (linear1,) {}
# linear2 call_module linear2 (relu,) {}
# output output output (linear2,) {}
# 3. サブモジュールを削除し、グラフを更新するロジック
# 削除したいサブモジュールの名前
submodule_to_delete = 'linear1'
# グラフ内のノードを走査し、対象のcall_moduleノードを探す
found_node = None
for node in graph_module.graph.nodes:
if node.op == 'call_module' and node.target == submodule_to_delete:
found_node = node
break
if found_node:
# 重要なステップ: 削除するノードの出力を、そのノードの入力に置き換える
# これにより、削除されるノードをスキップし、データフローを継続させる
# この例では、linear1 の入力 (x) が直接 relu の入力になる
# 注意: ここでは args[0] (最初の入力) を使用していますが、
# 複数の入力を持つノードの場合は、適切に処理する必要があります。
found_node.replace_all_uses_with(found_node.args[0])
# グラフからノードを削除
graph_module.graph.erase_node(found_node)
# GraphModuleから実際のサブモジュールを削除
graph_module.delete_submodule(submodule_to_delete)
# グラフの変更を反映させるためにrecompileが必要
graph_module.recompile()
else:
print(f"警告: サブモジュール '{submodule_to_delete}' に対応するグラフノードが見つかりませんでした。")
print(f"\n--- サブモジュール '{submodule_to_delete}' 削除後のグラフ ---")
graph_module.graph.print_tabular()
# Node Op Target Arg Kwarg
# --------------------- ---------- -------- ------------ -------
# x placeholder x () {}
# relu call_module relu (x,) {} # linear1 が消え、x が直接 relu に渡されている
# linear2 call_module linear2 (relu,) {}
# output output output (linear2,) {}
# 4. 変更後のGraphModuleをテスト
input_tensor = torch.randn(1, 10)
output = graph_module(input_tensor)
print(f"\n変更後のGraphModuleの出力形状: {output.shape}")
# 期待される動作: linear1 (10->5) がスキップされたため、
# linear2 (5->2) の入力は直接元の入力 x (10次元) から来るため、
# linear2 の入力次元が合わなくなりエラーになるか、
# もしくは linear2 の入力次元が合わないと実行時エラーになる可能性がある。
# この例では linear1 と relu の間に relu があるため、
# 厳密には linear1 の入力が relu に渡されるのではなく、
# linear1 の出力を期待していた relu が linear1 の入力を受け取ることになる。
# この例では、relu の入力が 10 次元になり、linear2 の入力が 10 次元になる。
# linear2 は 5 -> 2 なので、`RuntimeError: mat1 and mat2 shapes cannot be multiplied (1x10 and 5x2)`
# となるはず。これは意図的な動作を示している。
# 正しい動作のためには、linear1 の出力を受け取るはずだった relu が
# linear1 の入力を受け取る形になっているので、relu の入力サイズも
# 適切に調整する必要がある。
# あるいは、linear1 の出力を別のダミーテンソルなどで置き換える。
# --- より現実的な修正後のテストと確認 ---
# 上記のコードでは linear1 の入力を直接 relu に渡したため、
# relu (5->?) および linear2 (5->2) の入力サイズが合わなくなり、
# 実行時にエラーが発生します。
# 実際には、モジュールを削除する際に、その前後のモジュール間の
# テンソルの形状の整合性を保つように、より複雑なロジックが必要になります。
# 例えば、linear1 を恒等関数に置き換える場合は以下のようになる。
# (これは delete_submodule とは別のパターン)
# from torch.fx.api import Node
# class Identity(nn.Module):
# def forward(self, x):
# return x
# new_identity_module = Identity()
# graph_module.add_submodule('my_identity', new_identity_module) # 新しいモジュールを追加
# for node in graph_module.graph.nodes:
# if node.op == 'call_module' and node.target == submodule_to_delete:
# # linear1 の代わりに my_identity を呼び出すように変更
# node.target = 'my_identity'
# break
# graph_module.recompile()
# output = graph_module(input_tensor)
# print(f"Identity置き換え後のGraphModuleの出力形状: {output.shape}") # torch.Size([1, 2]) となる
# この例は delete_submodule の動作を示すものであり、
# 実際のモデル変更は複雑な場合があることを示唆しています。
例2: 複数のサブモジュールを特定の条件で削除する
この例では、ある特定の条件(例えば、特定のクラスのインスタンスであるモジュール)に基づいて複数のサブモジュールを削除する方法を示します。
import torch
import torch.nn as nn
from torch.fx import symbolic_trace, Graph, Node
# 1. 元のモデルの定義
class SubModuleA(nn.Module):
def __init__(self):
super().__init__()
self.conv = nn.Conv2d(3, 16, 3, padding=1)
def forward(self, x):
return self.conv(x)
class SubModuleB(nn.Module):
def __init__(self):
super().__init__()
self.bn = nn.BatchNorm2d(16)
def forward(self, x):
return self.bn(x)
class MyComplexModule(nn.Module):
def __init__(self):
super().__init__()
self.block1_a = SubModuleA()
self.block1_b = SubModuleB()
self.block2_a = SubModuleA() # これも削除対象
self.relu = nn.ReLU()
self.linear = nn.Linear(16 * 32 * 32, 10) # 最終出力層 (入力は flatten を想定)
def forward(self, x):
x = self.block1_a(x)
x = self.block1_b(x)
x = self.block2_a(x) # 削除対象のモジュール
x = self.relu(x)
x = torch.flatten(x, 1) # 線形層のためにフラット化
x = self.linear(x)
return x
print("--- 元のモデルの構造 ---")
model = MyComplexModule()
print(model)
# 2. モデルをFXでトレースしてGraphModuleを生成
graph_module = symbolic_trace(model)
print("\n--- トレース後のグラフ (削除前) ---")
graph_module.graph.print_tabular()
# 3. 特定のタイプのサブモジュールを削除するロジック
# 削除したいサブモジュールのパスと、それに続くノードの接続情報を保持するリスト
nodes_to_delete_info = []
# サブモジュールのイテレーション
for name, module in graph_module.named_modules():
# 今回は SubModuleA のインスタンスを削除したい
if isinstance(module, SubModuleA):
# グラフ内の対応するcall_moduleノードを探す
found_node = None
for node in graph_module.graph.nodes:
if node.op == 'call_module' and node.target == name:
found_node = node
break
if found_node:
# 削除するノードの出力を、そのノードの入力に置き換える情報を記録
nodes_to_delete_info.append({
'submodule_name': name,
'node': found_node,
'input_arg': found_node.args[0] # 通常は最初の入力
})
# 記録した情報に基づいて、安全に削除とグラフの変更を行う
for info in nodes_to_delete_info:
submodule_name = info['submodule_name']
node_to_delete = info['node']
input_arg = info['input_arg']
# ノードの出力をその入力で置き換える (スキップ)
node_to_delete.replace_all_uses_with(input_arg)
# グラフからノードを削除
graph_module.graph.erase_node(node_to_delete)
# GraphModuleから実際のサブモジュールを削除
graph_module.delete_submodule(submodule_name)
print(f"サブモジュール '{submodule_name}' を削除しました。")
# グラフの変更を反映させるためにrecompileが必要
graph_module.recompile()
print("\n--- サブモジュール削除後のグラフ ---")
graph_module.graph.print_tabular()
# block1_a と block2_a が削除され、そのパスがスキップされていることがわかるはず
# 4. 変更後のGraphModuleをテスト
input_tensor = torch.randn(1, 3, 32, 32) # バッチサイズ1, 3チャネル, 32x32画像
try:
output = graph_module(input_tensor)
print(f"\n変更後のGraphModuleの出力形状: {output.shape}")
except RuntimeError as e:
print(f"\n実行エラーが発生しました: {e}")
print("これは、削除によってテンソルの形状が不整合になった場合に発生します。")
print("この例では、block1_a と block2_a を削除したため、")
print("conv層が入力として受け取っていたチャネル数が変わらず、後続の層が期待する入力形状と合わなくなります。")
print("FXでのモデル操作は、形状の整合性を保つためのより複雑なロジックが必要です。")
print("例えば、削除した層の代わりに、適切なチャネル数を持つ恒等層を挿入するなど。")
# この例は、`delete_submodule()` の使い方を示していますが、
# 実際にモデルを健全な状態に保つためには、前述の通り
# 形状の整合性や、削除した層の代わりになる適切な処理の挿入が
# 非常に重要であることを示しています。
symbolic_trace(model)
: 最初に、PyTorch のnn.Module
をtorch.fx.GraphModule
に変換します。これにより、モジュールのforward
メソッドがグラフとして表現されます。graph_module.graph.nodes
のイテレーション:GraphModule
の内部にあるgraph
オブジェクトには、モデルの計算グラフを表すノードのリストが含まれています。これらのノードをイテレートして、目的のcall_module
ノード(サブモジュールの呼び出しを表すノード)を探します。node.replace_all_uses_with(new_input)
: これが最も重要なステップの一つです。サブモジュールを削除するということは、そのサブモジュールが受け取っていた入力が、次の処理に直接渡されるか、または別の形で処理される必要があります。replace_all_uses_with()
は、このノードの出力を使っていたすべての後続ノードが、代わりにnew_input
を使うように変更します。- 注意: どの
new_input
を使うかは、削除するモジュールの役割と、その後続のモジュールが期待する入力によって慎重に決定する必要があります。単純にnode.args[0]
(ノードの最初の入力)を使うことが多いですが、これは常に正しいとは限りません。
- 注意: どの
graph_module.graph.erase_node(node)
:replace_all_uses_with
で他のノードからの参照がなくなった後、このメソッドで対象のノードをグラフから完全に削除します。graph_module.delete_submodule(submodule_name)
: ここでようやく、GraphModule
オブジェクトから実際にサブモジュール(nn.Module
のインスタンス)が削除されます。これによって、GraphModule
の属性としてそのサブモジュールが存在しなくなります。graph_module.recompile()
: グラフの変更を反映させるために、必ずこのメソッドを呼び出す必要があります。これを忘れると、GraphModule
のforward
メソッドが更新されず、期待通りの挙動になりません。
torch.fx.GraphModule.delete_submodule()
の代替方法と関連する手法
主な代替方法や関連するアプローチは以下の通りです。
-
ノードの直接的な置き換え (
Node.replace_all_uses_with()
): これはdelete_submodule()
と組み合わせて使う最も一般的な方法ですが、場合によってはサブモジュールの削除を行わずに、グラフ内のノードの挙動だけを変更したい場合に単独で利用できます。- 説明: グラフ内の特定の
call_module
ノードを、別のノード(例:call_function
、別のcall_module
、あるいは既存のノードの出力)に置き換えることができます。サブモジュール自体はGraphModule
から削除されませんが、グラフ上では参照されなくなります。 - 利点: 柔軟性が高く、モジュールを恒等関数に置き換えたり、特定の計算に差し替えたりするのに便利です。サブモジュールを物理的に削除しないため、デバッグがしやすい場合もあります。
- 欠点: 実際に使われなくなったサブモジュールが GraphModule 内に残るため、メモリを消費する可能性があります。
- ユースケース:
- 特定の層をスキップしたい(例: 推論時に Dropout 層を無効にする)。
- ある層を別の層に置き換えたい(例: 畳み込み層を新しい最適化された畳み込み層に置き換える)。
- 特定のモジュールの出力を定数テンソルに置き換えたい。
import torch import torch.nn as nn from torch.fx import symbolic_trace class MyModule(nn.Module): def __init__(self): super().__init__() self.linear1 = nn.Linear(10, 5) self.linear2 = nn.Linear(5, 2) def forward(self, x): x = self.linear1(x) x = self.linear2(x) return x model = MyModule() graph_module = symbolic_trace(model) # グラフを走査して linear1 ノードを見つける for node in graph_module.graph.nodes: if node.op == 'call_module' and node.target == 'linear1': # linear1 の出力を、その入力(node.args[0])に置き換える node.replace_all_uses_with(node.args[0]) # ノードをグラフから削除 (参照されなくなったため) graph_module.graph.erase_node(node) break graph_module.recompile() # 変更を反映 print("--- linear1 スキップ後のグラフ ---") graph_module.graph.print_tabular() # linear1 が消え、linear2 の入力が直接 x から来る形になっている # これだと linear2 の入力サイズ (5) と x のサイズ (10) が合わないため、 # 実行時にエラーになる。 # 正しくスキップするには、linear2 の入力も調整する必要がある。 # 例えば、linear2 を受け入れるサイズに変換する層を挿入するなど。 # この例は、replace_all_uses_with() の動作を示すもので、 # 実際にはより複雑なロジックが必要であることを示唆している。
- 説明: グラフ内の特定の
-
新しいサブモジュールへの置き換え (
GraphModule.add_submodule()
とノードの再ターゲット): 特定のサブモジュールを、新しい別のサブモジュール(同じ型でも異なる型でもよい)に置き換えたい場合に非常に有効です。- 説明: まず新しいサブモジュールを
GraphModule.add_submodule()
で追加します。次に、元のサブモジュールを呼び出していたcall_module
ノードのtarget
属性を、新しいサブモジュールのパスに変更します。最後に、元のサブモジュールをdelete_submodule()
で削除します。 - 利点: モジュールの差し替えが明確に行えます。
- 欠点: 複数ステップが必要です。
- ユースケース:
- 既存の畳み込み層を、より高速な代替実装に置き換える。
- 推論時に学習済み BatchNorm 層を Fixed BatchNorm 層に置き換える。
- モデルの一部の構造を動的に変更する。
コード例(linear1 を別の Linear 層に置き換え)
import torch import torch.nn as nn from torch.fx import symbolic_trace class MyModule(nn.Module): def __init__(self): super().__init__() self.linear1 = nn.Linear(10, 5) self.linear2 = nn.Linear(5, 2) def forward(self, x): x = self.linear1(x) x = self.linear2(x) return x model = MyModule() graph_module = symbolic_trace(model) # 新しいサブモジュールを作成し、GraphModule に追加 new_linear1 = nn.Linear(10, 5) # 同じ入力/出力サイズ graph_module.add_submodule('new_linear1_replacement', new_linear1) # グラフを走査して linear1 ノードを見つけ、target を変更 for node in graph_module.graph.nodes: if node.op == 'call_module' and node.target == 'linear1': node.target = 'new_linear1_replacement' # 新しいサブモジュールを指すように変更 break # 元の linear1 サブモジュールを削除 graph_module.delete_submodule('linear1') graph_module.recompile() # 変更を反映 print("--- linear1 置き換え後のグラフ ---") graph_module.graph.print_tabular() # linear1 が new_linear1_replacement に置き換わっているはず output = graph_module(torch.randn(1, 10)) print(f"置き換え後のGraphModuleの出力形状: {output.shape}") # torch.Size([1, 2])
- 説明: まず新しいサブモジュールを
-
特定のノードの削除 (
Graph.erase_node()
): これはdelete_submodule()
と同時に行うことが多い操作ですが、サブモジュール自体は残しておき、グラフから特定の計算ステップだけを削除したい場合に単独で使えます。- 説明:
Node.replace_all_uses_with()
でノードへの参照をなくした後、Graph.erase_node()
を使ってノードをグラフから物理的に削除します。 - 利点: グラフから不要な計算ステップを削除できます。
- 欠点:
GraphModule
自体に紐づくサブモジュールは削除されないため、メモリ効率の面で最適ではない可能性があります。また、削除するノードの入力がどこからも参照されなくなる場合は、その入力ノードも削除を検討する必要があります(デッドコード削除)。 - ユースケース:
- 特定の計算ステップ(例: ロギング、デバッグ用の中間出力)を推論パスから除去する。
- 最適化の一環として冗長な計算を取り除く。
コード例(例1とほぼ同じ)
replace_all_uses_with
と組み合わせて使うのが一般的です。 - 説明:
-
GraphModule
の手動構築: 非常に複雑な変更を行う場合や、既存のグラフをベースにせず、ゼロからグラフを構築したい場合に有効です。- 説明:
torch.fx.Graph()
オブジェクトを直接作成し、Graph.placeholder()
,Graph.call_module()
,Graph.call_function()
,Graph.output()
などのメソッドを使って手動でノードを追加・接続してグラフを構築します。その後、構築したグラフとサブモジュールを使って新しいGraphModule
を作成します。 - 利点: 究極の柔軟性があり、どんなグラフ構造でも作成できます。
- 欠点: 非常に手間がかかり、元のモデルの情報を引き継ぐのが難しい場合があります。
- ユースケース:
- 完全にカスタムなグラフ構造を作成する。
- 非常に大きく根本的なモデルの再構築。
- FX の組み込みトレースでは表現できない特殊なグラフを作成する。
- 説明:
-
Pytorch Lightning
や高レベルなフレームワークのフック: FX とは直接関係ありませんが、特定のモジュールを動的に置き換えたい場合、Pytorch Lightning などのフレームワークが提供するフック(例:on_train_start
,on_after_backward
など)内でモジュールを直接置き換えたり、条件付きで特定のパスを実行しないようにしたりする方法も存在します。これはモデルのグラフ自体を操作するのではなく、Python レベルでモジュールインスタンスを変更するアプローチです。- 利点: FX の複雑さを回避できる場合があります。
- 欠点: グラフレベルの最適化には繋がりません。
- ユースケース: 特定の段階でのモジュールの凍結・解除、簡易的なモジュールの置き換え。
- 非常に複雑なグラフ変換や、カスタムグラフの構築: 手動でのグラフ構築を検討します。
- モジュールは残しておくが、その計算をスキップさせたい場合:
replace_all_uses_with()
とerase_node()
(またはノードを恒等関数を呼び出すように変更)を単独で使います。 - 特定のモジュールを別のモジュールに置き換えたい場合:
add_submodule()
とnode.target
の変更、そしてdelete_submodule()
の組み合わせが理想的です。 - 単に特定のモジュールをモデルから完全に削除したい場合:
delete_submodule()
とreplace_all_uses_with()
+erase_node()
の組み合わせが最も適切です。