18bit A/D変換装置の精度を落としていた原因が判明
長い間、悩んでいた問題がようやく解決できました。
18bit A/D変換器のテストをしていて、入力電圧がフルスケールの端に近づくにつれて簡易的に測ったINLが悪化しているという問題があることに気が付きました。
簡易的な測定というのは、「GPIB制御の標準電圧発生器でいろんな電圧を作ってADCで測る」というシンプルなやり方です。
S字を描いていて直線的ではなく厄介な感じがしますが、INLが悪化といっても±400uVくらいだったので、この問題は個体差か、計測時のやり方の問題か、標準電圧発生器の問題だろうと思っていました。
出荷テスト用に数台のボードを並べて測ってみて、すべてのボードで同じような現象が起きたので、これは何か理由があるな・・と。これはヤバい。
この原因を見つけるのはとても苦労しました。何日もかかってようやくわかりました。
対策をしたほうと、していない方を比べてみるとその差は歴然としています。
対策をする前(青)は、0.8%くらいのゲイン誤差で、INLは±400uVくらいです。
それに対して、対策をした後(赤)は、0.02%くらいのゲイン誤差で、INLは±100uVくらいのように見えます。
しかし、上ののグラフで入力電圧が±1Vを超えるとギザギザが大きくなっているのは標準電圧発生器のノイズが増えているためです。実際には0V近辺の値が正しい値なので、このA/DボードのINLは±40uVと推定できます。つまり、±2LSBくらいです。
この綺麗なINLのグラフは何度やっても、同じようにとれるようになりました。
何台かのボードで測ってみても、ゲイン誤差は0.03~0.05%以下になりました。2.5Vを与えたときに2.499くらいまでは正確にでます。
明日はよりしっかりとした測定をするため、、低ひずみな正弦波を使ってDNLを測定してみることにします。
今回判明した「精度を落としていた原因」については、次回の月刊特電のネタにしようと思います。ご期待ください!
| 固定リンク
コメント