Experiments show LIFAGU achieves near‑zero error vs. ground truth and speeds up inference via lifting, generalizing colour passing to unknown factors.Experiments show LIFAGU achieves near‑zero error vs. ground truth and speeds up inference via lifting, generalizing colour passing to unknown factors.

When Graphs Have Gaps: LIFAGU Finds Symmetry and Speeds Up Inference

Abstract and 1. Introduction

  1. Preliminaries and 2.1 Factor Graphs and Parameterised Factor Graphs

    2.2 The Colour Passing Algorithm

  2. The LIFAGU Algorithm

  3. Empirical Evaluation

  4. Conclusion, Acknowledgements, and References

4 Empirical Evaluation

In this section, we present the results of the empirical evaluation for LIFAGU. To evaluate the performance of LIFAGU, we start with a non-parameterised FG G where all factors are known, serving as our ground truth. Afterwards, we remove the potential mappings for five to ten percent of the factors in G, yielding an incomplete FG G′ on which LIFAGU is run to obtain a PFG GLIFAGU. Each factor f ′ whose potentials are removed is chosen randomly under the constraint

\ Fig. 4: Left: The mean KL divergence on the queried probability distributions (thick line) as well as the standard deviation of all measured KL divergences for each choice of d (ribbon around the mean). Right: The mean run time of variable elimination and lifted variable elimination for each choice of d.

\ that there exists at least one other factor with known potentials that is possibly identical to f ′ . This constraint corresponds to the assumption that there exists at least one group to which a new individual can be added and it ensures that after running LIFAGU, probabilistic inference can be performed for evaluation purposes. Clearly, in our evaluation setting, there is not only a single new individual but instead a set of new individuals, given by the set of factors whose potentials are missing. We use a parameter d = 2, 4, 8, 16, 32, 64, 128, 256 to control the size of the FG G (and thus, the size of G′ ). More precisely, for each choice of d, we evaluate multiple input FGs which contain between 2d and 3d randvars (and factors, respectively). The potentials of the factors are randomly generated such that the ground truth G contains between three and five (randomly chosen) cohorts of randvars which should be grouped together, with one cohort containing roughly 50 percent of all randvars in G while the other cohorts share the remaining 50 percent of the randvars from G uniformly at random.

\ We set θ = 0 to ensure that each unknown factor is grouped with at least one known factor to be able to perform lifted probabilistic inference on GLIFAGU for evaluation. To assess the error made by LIFAGU for each choice of d, we pose d different queries to the ground truth G and to GLIFAGU, respectively. For each query, we compute the Kullback-Leibler (KL) divergence [10] between the resulting probability distributions for the ground truth G and GLIFAGU to measure the similarity of the query results. The KL divergence measures the difference of two distributions and its value is zero if the distributions are identical.

\ In the left plot of Fig. 4, we report the mean KL divergence over all queries for each choice of d. The ribbon around the line illustrates the standard deviation of the measured KL divergences. We find that the mean KL divergence is close to zero for all choices of d in practice. Both the mean KL divergence and the standard deviation of the KL divergences do not show any significant differences between the various values for d. Note that the depicted standard deviation is also very small for all choices of d due to the granularity of the y-axis. The maximum KL divergence measured for any choice of d is about 0.01.

\ Given our assumptions, a new individual actually belongs to a cohort and most cohorts behave not completely different. So normally, we trade off accuracy of query results for the ability to perform inference, which otherwise would not be possible at all. If the semantics cannot be fixed, missing potentials need to be guessed to be able to perform inference at all, probably resulting in worse errors. As we basically perform unsupervised clustering, errors might happen when grouping unknown factors with known factors. The error might be further reduced by increasing the effort when searching for known factors that are possible candidates for grouping with an unknown factor. For example, it is conceivable to increase the size of the neighbourhood during the search for possible identical factors at the expense of a higher run time expenditure.

\ In addition to the error measured by the KL divergence, we also report the run times of variable elimination on G and lifted variable elimination on the PFG computed by LIFAGU, i.e., GLIFAGU. The run times are shown in the right plot of Fig. 4. As expected, lifted variable elimination is faster than variable elimination for larger graphs and the run time of lifted variable elimination increases more slowly with increasing graph sizes than the run time of variable elimination. Hence, LIFAGU not only allows to perform probabilistic inference at all, but also speeds up inference by allowing for lifting probabilistic inference. Note that there are on average 24 different groups over all settings with the largest domain size being 87 (for the setting of d = 256), i.e., there are a lot of small groups (of size one) which diminish the advantage of lifted variable elimination over variable elimination. We could also obtain more compact PFGs by merging groups that are not fully identical but similar to a given extent such that the resulting PFG contains less different groups at the cost of a lower accuracy of query results. Obtaining a more compact PFG would most likely result in a higher speedup of lifted variable elimination compared to variable elimination.

\

5 Conclusion

In this paper, we introduce the LIFAGU algorithm to construct a lifted representation for an FG that possibly contains unknown factors. LIFAGU is a generalisation of the widespread CP algorithm and allows to transfer potentials from known factors to unknown factors by identifying symmetric subgraphs. Under the assumption that for every unknown factor there exists at least one known factor having a symmetric surrounding graph structure to it, LIFAGU is able to replace all unknown potentials in an FG by known potentials.

\

Acknowledgements

This work was partially supported by the BMBF project AnoMed. The research of Malte Luttermann was also partially supported by the Medical Cause and Effects Analysis (MCEA) project. This preprint has not undergone peer review or any post-submission improvements or corrections. The Version of Record of this contribution is published in Lecture Notes in Computer Science, Volume 14294, and is available online at https://doi.org/10.1007/978-3-031-45608-4 25.

\

References

  1. Ahmadi, B., Kersting, K., Mladenov, M., Natarajan, S.: Exploiting Symmetries for Scaling Loopy Belief Propagation and Relational Training. Machine Learning 92, 91–132 (2013)

    \

  2. Braun, T., Moller, R.: Lifted Junction Tree Algorithm. In: Proceedings of KI 2016: Advances in Artificial Intelligence (KI-16). pp. 30–42. Springer (2016)

    \

  3. De Salvo Braz, R., Amir, E., Roth, D.: Lifted First-Order Probabilistic Inference. In: Proceedings of the Nineteenth International Joint Conference on Artificial Intelligence (IJCAI-05). pp. 1319–1325. Morgan Kaufmann Publishers Inc. (2005)

    \

  4. De Salvo Braz, R., Amir, E., Roth, D.: MPE and Partial Inversion in Lifted Probabilistic Variable Elimination. In: Proceedings of the Twenty-First National Conference on Artificial Intelligence (AAAI-06). pp. 1123–1130. AAAI Press (2006)

    \

  5. Gehrke, M., M¨oller, R., Braun, T.: Taming Reasoning in Temporal Probabilistic Relational Models. In: Proceedings of the Twenty-Fourth European Conference on Artificial Intelligence (ECAI-20). pp. 2592–2599. IOS Press (2020)

    \

  6. Hoffmann, M., Braun, T., M¨oller: Lifted Division for Lifted Hugin Belief Propagation. In: Proceedings of the Twenty-Fifth International Conference on Artificial Intelligence and Statistics (AISTATS-22). pp. 6501–6510. PMLR (2022)

    \

  7. Kersting, K., Ahmadi, B., Natarajan, S.: Counting Belief Propagation. In: Proceedings of the Twenty-Fifth Conference on Uncertainty in Artificial Intelligence (UAI-09). pp. 277–284. AUAI Press (2009)

    \

  8. Kisy´nski, J., Poole, D.: Constraint Processing in Lifted Probabilistic Inference. In: Proceedings of the Twenty-Fifth Conference on Uncertainty in Artificial Intelligence (UAI-09). pp. 293–302. AUAI Press (2009)

    \

  9. Kschischang, F.R., Frey, B.J., Loeliger, H.A.: Factor Graphs and the Sum-Product Algorithm. IEEE Transactions on Information Theory 47, 498–519 (2001)

    \

  10. Kullback, S., Leibler, R.A.: On Information and Sufficiency. The Annals of Mathematical Statistics 22, 79–86 (1951)

    \

  11. Milch, B., Zettlemoyer, L.S., Kersting, K., Haimes, M., Kaelbling, L.P.: Lifted Probabilistic Inference with Counting Formulas. In: Proceedings of the TwentyThird AAAI Conference on Artificial Intelligence (AAAI-08). pp. 1062–1068. AAAI Press (2008)

    \

  12. Niepert, M., Van den Broeck, G.: Tractability through Exchangeability: A New Perspective on Efficient Probabilistic Inference. In: Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence (AAAI-14). pp. 2467–2475. AAAI Press (2014)

    \

  13. Poole, D.: First-Order Probabilistic Inference. In: Proceedings of the Eighteenth International Joint Conference on Artificial Intelligence (IJCAI-03). pp. 985–991. Morgan Kaufmann Publishers Inc. (2003)

    \

  14. Taghipour, N., Fierens, D., Davis, J., Blockeel, H.: Lifted Variable Elimination: Decoupling the Operators from the Constraint Language. Journal of Artificial Intelligence Research 47, 393–439 (2013)

    \

  15. Weisfeiler, B., Leman, A.A.: The Reduction of a Graph to Canonical Form and the Algebra which Appears Therein. NTI, Series 2, 12–16 (1968), English translation by Grigory Ryabov available at https://www.iti.zcu.cz/wl2018/pdf/ wl paper translation.pdf

\

:::info Authors:

(1) Malte Luttermann[0009 −0005 −8591 −6839], Institute of Information Systems, University of Lubeck, Germany and German Research Center for Artificial Intelligence (DFKI), Lubeck, Germany (luttermann@ifis.uni-luebeck.de);

(2) Ralf Moller[0000 −0002 −1174 −3323], Institute of Information Systems, University of Lubeck, Germany and German Research Center for Artificial Intelligence (DFKI), Lubeck, Germany (moeller@ifis.uni-luebeck.de);

(3) Marcel Gehrke[0000 −0001 −9056 −7673], Institute of Information Systems, University of Lubeck, Germany (gehrke@ifis.uni-luebeck.de).

:::


:::info This paper is available on arxiv under ATTRIBUTION-SHAREALIKE 4.0 INTERNATIONAL license.

:::

\

Market Opportunity
NEAR Logo
NEAR Price(NEAR)
$1.727
$1.727$1.727
-1.08%
USD
NEAR (NEAR) Live Price Chart
Disclaimer: The articles reposted on this site are sourced from public platforms and are provided for informational purposes only. They do not necessarily reflect the views of MEXC. All rights remain with the original authors. If you believe any content infringes on third-party rights, please contact service@support.mexc.com for removal. MEXC makes no guarantees regarding the accuracy, completeness, or timeliness of the content and is not responsible for any actions taken based on the information provided. The content does not constitute financial, legal, or other professional advice, nor should it be considered a recommendation or endorsement by MEXC.

You May Also Like

How ZKP’s Daily Presale Auction Is Creating a New Standard for 1,000x Returns

How ZKP’s Daily Presale Auction Is Creating a New Standard for 1,000x Returns

The post How ZKP’s Daily Presale Auction Is Creating a New Standard for 1,000x Returns appeared on BitcoinEthereumNews.com. Disclaimer: This article is a sponsored
Share
BitcoinEthereumNews2026/01/16 09:02
Little Pepe (LILPEPE) koers, nu investeren in de lopende presale?

Little Pepe (LILPEPE) koers, nu investeren in de lopende presale?

i Kennisgeving: Dit artikel bevat inzichten van onafhankelijke auteurs en valt buiten de redactionele verantwoordelijkheid van BitcoinMagazine.nl. De informatie is bedoeld ter educatie en reflectie. Dit is geen financieel advies. Doe zelf onderzoek voordat je financiële beslissingen neemt. Crypto is zeer volatiel er zitten kansen en risicos aan deze investering. Je kunt je inleg verliezen. Little Pepe (LILPEPE) is dit jaar uitgegroeid tot een van de meest besproken meme coins. Het project ontwikkelt een eigen Layer 2 blockchain die speciaal is ontworpen voor meme projecten. De presale van LILPEPE startte op 10 juni 2025 en haalde sindsdien meer dan $ 25,9 miljoen bij investeerders op. Tot nu toe was elke fase van de presale ruim voor tijd uitverkocht. Nu zit het project in fase 13 en kun je de tokens aanschaffen voor een prijs van $ 0,0022 per stuk. Little Pepe combineert heel slim de meme cultuur met geavanceerde blockchain technologie. Het team bouwde een EVM-compatibel Layer 2 netwerk dat razendsnelle transacties en vrijwel geen kosten biedt. Daarmee steekt LILPEPE ver boven de typische meme coins uit die op bestaande netwerken draaien. Het project heeft 26,5% van de totale voorraad van 100 miljard tokens gereserveerd voor de presale. Elke nieuwe fase stijgt de token prijs, waardoor deelnemers worden aangemoedigd sneller toe te slaan. Nu al zijn meer dan 15 miljard tokens verkocht en de presale nadert snel het einde. Little Pepe presale blijft sterk presteren De presale heeft sinds de start in juni een stevige groei laten zien. Zo is in meerdere ronden al meer dan $ 25,9 miljoen opgehaald. Ronde 1 startte met een prijs van $ 0,001 per token en was al binnen slechts 72 uur uitverkocht, goed voor bijna $ 500.000. Tijdens de tweede presale fase kostte de coin tussen $ 0,0011 en $ 0,0015 en haalde het project meer dan $ 1,23 miljoen op voordat alles snel uitverkocht was. In ronde 3 steeg de prijs naar $ 0,0012, met een bevestigde exchange listing prijs van $ 0,003. Wie er vroeg bij was, zag daardoor een potentiële winst van 150%. De eerdere presale rondes trokken zoveel belangstelling dat de tokens sneller uitverkochten dan verwacht. Inmiddels hebben meer dan 38.000 mensen deelgenomen. In ronde 13 van de presale staat de token momenteel geprijsd op $ 0,0022. Doordat de prijs bij elke mijlpaal stapsgewijs stijgt, voelt men er vanzelf een soort urgentie bij. Vroege deelnemers hebben zo veel lagere prijzen kunnen pakken dan de huidige kopers. Dankzij deze gefaseerde aanpak blijft de presale de hele periode door spannend en interessant. Belangrijkste kenmerken van Little Pepe’s technologie Little Pepe is de native currency van een gloednieuwe Layer 2 chain, speciaal voor meme coins. De blockchain is razendsnel, extreem goedkoop en sterk beveiligd en vooral aantrekkelijk voor traders en ontwikkelaars. Het netwerk verwerkt transacties in een oogwenk en de gas fees zijn bijna nul. De trades worden niet belast en dat zie je maar zelden bij meme coins. Bovendien is de blockchain beschermd tegen sniper bots, zodat kwaadaardige bots geen kans krijgen om presale lanceringen te manipuleren. Ontwikkelaars kunnen dankzij EVM-compatibiliteit heel eenvoudig smart contracts en meme tokens bouwen en lanceren. De infrastructuur is opgezet als hét centrale platform voor meme-innovatie, met on-chain communitytools en governance-opties. “Pepe’s Pump Pad” is het launchpad voor de meme tokens van het project. Tokens die hier worden gelanceerd, hebben ingebouwde anti-scam beveiligingen en liquidity locks worden automatisch toegepast om rug pulls te voorkomen. Zo kunnen makers nieuwe meme tokens lanceren zonder zich zorgen te maken over veiligheidsrisico’s. Is LILPEPE de beste crypto presale om nu te kopen? Little Pepe is de allereerste Layer 2 blockchain die volledig draait om memes. Dat geeft het project een unieke plek in de drukke wereld van meme coins. Het doel is om de “meme verse” te worden: een plek waar meme projecten kunnen lanceren, verhandelen en echt groeien. Het succes van de presale laat zien dat er veel interesse is voor deze aanpak. In de vroege fases waren de fase binnen 72 uur uitverkocht en zelfs de latere fases gingen sneller dan gepland. Met meer dan $ 25,9 miljoen dat is opgehaald, is er veel vertrouwen in deze meme coin. Little Pepe staat technisch stevig dankzij zijn Layer 2 infrastructuur. Het project heeft een CertiK security audit doorstaan, wat het vertrouwen van investeerders aanzienlijk versterkt. Als je naar de listings op CoinMarketCap en CoinGecko kijkt, is duidelijk te zien dat het project ook buiten de meme community steeds meer erkenning krijgt. Little Pepe is volgens analisten dan ook een van de meest veelbelovende meme coins voor 2025. De combinatie van meme cultuur en echte functionaliteit, maakt deze meme coin betrouwbaarder en waardevoller dan de meeste puur speculatieve tokens. Dankzij de snelle presale en het innovatieve ecosysteem is Little Pepe klaar om zich als serieuze speler in de wereld van meme coins te vestigen. Het project werkt volgens een roadmap met onder andere exchange listings, staking en uitbreiding van het ecosysteem. Door LILPEPE tokens te listen op grote gecentraliseerde exchanges, wordt het voor iedereen makkelijker om te traden en neemt de liquiditeit flink toe. Mega Giveaway campagne vergroot betrokkenheid community Little Pepe is gestart met een Mega Giveaway om de community te belonen voor hun deelname. De Mega Giveaway richt zich op de deelnemers die tijdens fases 12 tot en met 17 de meeste LILPEPE tokens hebben gekocht. De grootste koper wint 5 ETH, de tweede plaats ontvangt 3 ETH en de derde plaats 2 ETH. Ook worden 15 willekeurige deelnemers elk met 0,5 ETH beloond. Iedereen die LILPEPE bezit kan meedoen. Dat gaat heel handig. Je vult je ERC20-wallet adres in en voert een paar social media opdrachten uit. Deze actie moet gedurende de presale voor extra spanning en een gevoel van urgentie om snel mee te doen gaan zorgen, zowel aan de giveaway als aan de presale. De giveaway loopt dan ook tot fase 17 volledig is uitverkocht. De community blijft op alle platforms hard doorgroeien. Tijdens de giveaway is de activiteit op social media flink omhooggeschoten. Zo’n betrokkenheid is vaak een goed teken dat een meme coin op weg is naar succes. Little Pepe analyse koers verwachting De tokens van Little Pepe gaan tijdens fase 13 voor $ 0,0022 over de toonbank. De listing prijs op de exchanges is bevestigd op $ 0,003 en kan de deelnemers aan de presale mooie winsten kan opleveren. Volgens analisten kan de prijs van LILPEPE tegen het einde van 2025 naar $ 0,01 stijgen. Dit zou het project een marktwaarde van $ 1 miljard kunnen geven. Deze voorspelling gaat uit van een sterke cryptomarkt en van succesvolle exchange listings. Voor 2026 lopen de koers verwachtingen voor LILPEPE sterk uiteen. Als de cryptomarkt blijft stijgen, zou de token $ 0,015 kunnen bereiken. Maar als de markt instort en een bear market toeslaat, kan de prijs terugvallen naar $ 0,0015. Dat is een groot verschil, maar zo werkt crypto nu eenmaal. Zeker bij meme coins, omdat ze sterk reageren op de marktsfeer. Op de lange termijn, richting het jaar 2030, wijzen sommige verwachtingen op prijzen van $ 0,03 in gunstige scenario’s. Dat gaat uit van een succesvolle aanname van Layer 2 en verdere groei van de meme coin sector. Voorzichtige schattingen plaatsen de prijs in 2030 rond $ 0,0095. Zelfs een klein stukje van de marktwaarde van grote meme coins kan volgens experts al voor flinke winsten zorgen. Sommige analisten verwachten dat de opbrengsten zelfs 15.000% tot 20.000% kunnen bereiken als Little Pepe hetzelfde succes haalt als eerdere populaire meme coins. Doe mee aan de Little Pepe presale Wil je erbij zijn? Ga naar de officiële website van de coin om mee te doen aan de presale. Tijdens de huidige fase kost een token $ 0,0022 en je kunt eenvoudig betalen met ETH of USDT via je wallet. Je kunt aan de presale deelnemen met MetaMask of Trust Wallet. Verbind je wallet eenvoudig met de officiële website en zorg dat je voldoende ETH of USDT hebt om het gewenste aantal tokens te kopen. De presale accepteert ERC-20 tokens op het Ethereum netwerk. Na aankoop kun je je tokens claimen zodra alle presale rondes zijn afgerond. Alle informatie over het claimen vind je via de officiële website en communicatiekanalen. NEEM NU DEEL AAN DE LITTLE PEPE ($ LILPEPE) PRESALE Website    |    (X) Twitter    |  Telegram i Kennisgeving: Dit artikel bevat inzichten van onafhankelijke auteurs en valt buiten de redactionele verantwoordelijkheid van BitcoinMagazine.nl. De informatie is bedoeld ter educatie en reflectie. Dit is geen financieel advies. Doe zelf onderzoek voordat je financiële beslissingen neemt. Crypto is zeer volatiel er zitten kansen en risicos aan deze investering. Je kunt je inleg verliezen. Het bericht Little Pepe (LILPEPE) koers, nu investeren in de lopende presale? is geschreven door Redactie en verscheen als eerst op Bitcoinmagazine.nl.
Share
Coinstats2025/09/18 18:50
Lighter drops 14% after losing $2 support – More pain ahead for LIT?

Lighter drops 14% after losing $2 support – More pain ahead for LIT?

The post Lighter drops 14% after losing $2 support – More pain ahead for LIT? appeared on BitcoinEthereumNews.com. Since it touched a high of $4.5, Lighter has
Share
BitcoinEthereumNews2026/01/16 08:46