PROTECTED SOURCE SCRIPT
Entropy Percentile

Entropy, in information theory, is the amount of info, or "uncertainty" in the possible outcomes of a variable. For example. when you flip a coin, there are two possible outcomes. That means there is one bit of entropy, as there is a chance it could land on either side, so in other words, there is "one bit of uncertainty". In trading, this can be used to help filter out when there is more or less uncertainty in the possible outcomes of the market.
This indicator takes a shannon entropy formula and applies a percent rank to get an idea of how much of past entropy was equal or lower than the current value, allowing us to see if entropy is at a significant extreme, thus giving us a method of viewing uncertainty in the log returns time series.
Put simply, this allows us to find optimal entries by showing us via background color signals when entropy is at a statistical low, showing where we may find higher probability entries.
This indicator takes a shannon entropy formula and applies a percent rank to get an idea of how much of past entropy was equal or lower than the current value, allowing us to see if entropy is at a significant extreme, thus giving us a method of viewing uncertainty in the log returns time series.
Put simply, this allows us to find optimal entries by showing us via background color signals when entropy is at a statistical low, showing where we may find higher probability entries.
保護スクリプト
このスクリプトのソースコードは非公開で投稿されています。 ただし、制限なく自由に使用できます – 詳細はこちらでご確認ください。
免責事項
この情報および投稿は、TradingViewが提供または推奨する金融、投資、トレード、その他のアドバイスや推奨を意図するものではなく、それらを構成するものでもありません。詳細は利用規約をご覧ください。
保護スクリプト
このスクリプトのソースコードは非公開で投稿されています。 ただし、制限なく自由に使用できます – 詳細はこちらでご確認ください。
免責事項
この情報および投稿は、TradingViewが提供または推奨する金融、投資、トレード、その他のアドバイスや推奨を意図するものではなく、それらを構成するものでもありません。詳細は利用規約をご覧ください。