Constellation ($DAG): Big Data über DLT - Ist das möglich?

Endlich mal jemand der sich mit dem Projekt auch auskennt! :+1:
Kann man die Anzahl der Nodes irgendwie validieren? 4000 Nodes klingen bei dieser doch recht hohen Einstiegshürde aber als unerwartet viel.
Tatsächlich fällt mir ein, dass ich schonmal darauf hingewiesen wurde, dass es beim Mainnet 2.0 andere Tokenomics geben wird.

Man kann über das DEFI-Hub von Constellation (Lattice Exchange) die Anzahl der Softnodes und deren rewards einsehen.
LINK:

1 „Gefällt mir“

Und die Anzahl der Nodes steigt angeblich um 300 pro Monat - trotz der hohen Einstiegshürde.
Wobei es auch hart ist, dass allein durch die Nodes 40% des Supplies vom Markt sind.
Bei ETH 2.0 „besetzen“ die >200.000 Validatoren immerhin nur 2% des Supplies.

BTW: sorry für den Fehler! Eine ETH2.0 Node ist mit aktuell ca. 70.000€ sogar noch teurer als bei DAG. Wobei hier auch ein Faktor 1000 bei der MarketCap vorliegt :scream:
Sollte DAG mal deutlich steigen, wird der Preis meines Erachtens unverhältnismäßig hoch!

Die 250.000 $DAG Voraussetzung wird mit dem laufe der Zeit sehr wahrscheinlich angepasst. Jedoch werden kleinere Investoren, welche $DAG staken möchten mit Lite Nodes die Möglichkeit haben. Lite Nodes sind allerdings noch nicht verfügbar und daher kann man keine genauen Angaben machen bzgl. ROI oder Anzahl der erforderlichen $DAG.

Es wäre schön wenn sich Leute welche die Thematik interessant finden diese Woche etwas einlesen könnten. Nächste Woche stelle ich mal ein/zwei Thesen auf welche diskutiert werden können.
(Keine Sorge - rein sachlich, keine Preisdiskussionen)

Wie angekündigt heute die erste These:

  1. HGTP wird das erste Netzwerk sein, welches das Orakel Problem lösen kann (nach Mainnet 2.0.).

Info falls dieses Problem nicht bekannt ist:

:clown_face:

Hast Du dieses Problem vollständig verstanden?

Es geht nicht nur, um die Kommunikation von außen mit der Blockchain und vice versa.

Daten müssen von außen eingepflegt werden. Dieser Prozess ist niemals trustless möglich. Und darin liegt das eigentliche Problem.

Beispiel:
Du hast einen Smart Contract für Dein Airbnb. Die Miete wird automatisch nach verlassen des Appartements bezahlt. Aber wer prüft, dass das Zimmer angemessen hinterlassen wurde? Eine dezentrale Hardware, die Konsens im Netzwerk findet? Eben. Hier liegt das Problem. Es braucht eine zentrale Instanz.

Mit Vertrauen ist auch es auch schon heute möglich mit einem Smart Contract zu interagieren. Oder auf banale Werte wie eine Uhrzeit etc. zuzugreifen. Aber über komplexere Probleme wird auch HTGP in Zukunft nicht entscheiden können.

Darin liegt ja gerade das (wirkliche) Oracle Problem.

3 „Gefällt mir“

Äh Moment, beziehst du dich bei deiner These auf derartige Aussagen?

Smart contracts require an oracle to validate information from the real world.
State channels solve the oracle problem by validating data itself, from the origin of where it comes from.
(Quelle: medium)

Das ist doch wohl ein Witz oder?
Ich übersetze für dich mal, was dort steht:
„SmartContracts benötigen ein Orakel, um Informationen aus der realen Welt zu validieren.
State Channels lösen dieses Problem, indem sie die Daten selbst aus ihrer Ursprungsquelle (Blockchain!) validieren.“

Dass sie das ernst meinen, steht dann im nächsten Absatz:

Smart contracts are limited to specific blockchains from which they emanate.
State channels are able to process arbitrary data from multiple blockchains or any data sources (cars & devices).

Also um es mal zusammengefasst auszudrücken:
Normale Blockchains haben das Problem, dass sie auf Real-World-Daten ohne Mittelsmann nicht auf Echtheit prüfen können.
Constellation löst das Problem, indem sie einfach die Daten von der Blockchain einlesen, wo die Daten ursprünglich herkommen.

Bitte zwickt mich mal einer^^
Was in Gottes Namen hat das eine mit dem anderen zu tun?

Einfaches Beispiel:

  • McWinston kauft sich ein Auto
  • wird von mir aus auf der grandiosen VeChain-Blockchain abgespeichert (Vorsicht Sarkasmus)

Wenn nun irgendein SmartContract auf diesen Eintrag zugreift, kann dem Wahrheitsgehalt natürlich nicht ohne ein Orakel vertraut werden.

Wenn nun ein State-Channel auf diese Daten zugreift, dann sind die natürlich auch ohne Orakel total vertrauenswürdig.

Seems legit!

2 „Gefällt mir“

Würde es nicht eine Vielzahl von Anwendungen geben, in denen Sensorsysteme und KI direkt Daten über HGTP sammeln und bereitstellen können. Wer über genügend Daten verfügt und weiß, dass diese durch HGTP vertrauenswürdig/fälschungssicher sind könnte viele Ableitungen anstellen. Somit werden die Sensoren zum Orakel selbst. Man kann durch hohe Logik diese Sensoren noch Fehlerresistenter machen z.B. durch automatische Auswertung alter Daten dieser Sensoren oder/und Bedingungen (z.B. Temperatursensor nur wahr wenn Temperatur zwischen -20 und +60 liegt). Falls mehrere Sensoren vorhanden sind kann man diese zudem vergleichen.

Beispiel Airbnb von HODLer:
Falls ein Kamerasystem den Zustand erfassen kann oder ein sonstiges Sensorsystem wie bspw. ein kleiner Hausroboter das Apartment „abscannt“, könnten diese Prozesse durchaus „trustless“ durchgeführt werden. Bzw. der „trust“ wird ja dadurch gegeben, dass man den Daten aus HGTP vertrauen kann und seiner eigenen Sensorik und Software vertraut.

Dieser Ansatz hat aber doch nichts mit der spezifischen DAG Technologie zu tun.

Beispielsweise Cardano, SingularityNET und WolframAlpha wollen soweit ich weiß auch KI Oracles die Daten bereitstellen lassen. Keine Ahnung was daraus geworden ist, die Nachricht ist schon ein Jahr alt.

Die Frage ist einfach nur, wie streng man das Oracle Problem auslegt.

Natürlich kann jeder Rechner und jeder Sensor, der Realweltdaten auf die Blockchain bringt, manipuliert werden; seien es noch so viele.

In der Praxis mag einem das bei (vermeintlich) ausreichender Diversifikation der Quellen genug sein. Aber falls man das Oracle Problem streng auslegt, wird es hier nicht gelöst.

Damit ist es eben nicht trustless.

1 „Gefällt mir“

Das ist also wirklich dein Ernst, dass du vorgibst, sobald die Daten über HGTP eingesammelt werden, sind sie vertrauenswürdig, bei jedem anderen Protokoll hingegen sind sie es nicht.

Das klingt in höchstem Maße unlogisch! Jedes Protokoll kann quasi „direkt“ mit einem Sensor verbunden sein. Da ist HGTP nichts besonders!

Willst du was wirklich besonderes dagegen sehen?
Schaue dir mal das Projekt Alvarium von IOTA an! Da arbeiten ein paar der weltweit größten. Chiphersteller daran, Sensordaten im Chip bei jedem Schritt im Tangle abzusichern und somit einen Trustscore aufzubauen. Das ganze geschieht auf Hardwareebene(!) nicht erst in der Firmware(!)… kommt HGTP in irgendeiner Form da ran? Ich glaube nicht… ergo ist HGTP nicht vertrauenswürdiger als quasi all die anderen Projekte und HGTP löst definitiv nicht das Oracle-Problem!
(IOTA auch nicht, nur damit das klar ist^^)

1 „Gefällt mir“

In der Tat ist es Auslegungssache. Daher ist es auch eine These die zur Diskussion einlädt und keine Behauptung.

Ja es könnte am Sensor direkt manipuliert werden.
Jedoch: HTTP(S) untersucht jede Serveranfrage unabhängig und kann z.B. nicht erkennen ob eine Anfrage zweimal von „X“ kam oder von X und Y, HGTP dagegen schon.

ich wage zu behaupten, dass HGTP mehr vertrauen schaffen könnte als HTTP(S).

Ich denke schon das es etwas besonderes ist. Man kann zwar HTTPS nutzen um Daten zu validieren jedoch mit mehreren Risikofaktoren. Daten die über HGTP validiert/sortiert werden könnten nicht korrumpiert werden.

IOTA macht einige sehr gute/interessante Sachen. Ich bin leider mittlerweile nicht mehr so tief in der aktuellen Roadmap und kenne das Projekt Alvarium noch nicht. Der Unterschied ist das IOTA anscheinend nicht so einfach mit existierender Hardware arbeiten kann, daher Hardwareherstellung. HGTP wird sich an bestehende Systeme anknüpfen lassen können. Es werden keine eigenen Chips benötigt, was ich persönlich viel besser finde (und vermutlich auch die Industrie).

Auslegungssache. Auf jeden Fall nicht in allen Fällen das ist klar. Aber ich denke in einigen schon, Tendenz steigend mit entsprechendem IOT-Ausbau

Gratulation, du hast das Oracle-Problem identifiziert!
Ist damit die These widerlegt?

Behauptungen unterstützen keine These!

Ich verstehe den Vergleich zwischen HGTP und HTTP(S) nicht^^ Ich dachte wir reden hier von Oracle-notwendigen Daten auf DLTs und nicht auf irgendwelchen Servern im HTTP-Raum. Jeder mir bekannte DLT nutzt sein eigenes Kommunikationsprotokoll (Bitcoin Wire Protocol, Ethereum Wire Protocol…)
Ich glaube du vermischst hier mehrere Dinge miteinander.
Es gibt ja mehrere Arten auf Daten in einem DLT zuzugreifen. Wenn ich von jenem DLT eine eigene physische Node habe, kann ich mich im DLT-eigenen Protokoll bewegen und benötige kein HTTP(S).
Habe ich keine physische Node (oder meine Node läuft nur auf einem VPN irgendwo im worldwideweb) „kann“ ich natürlich über HTTP(S) die Daten abfragen.
Soweit mir bekannt ist, laufen $DAG-Nodes auch auf VPNs…

Alles in Allem macht es den Anschein, dass wir beim Oracle-Problem von verschiedenen Dingen reden. Den meisten Leuten geht es dabei um die Datenherstellung aus der realen Welt. Den Constellation-Anhängern geht es nur um den Datentransport.
Das ist ein gewaltiger Unterschied!

Ich will nicht OT werden, deswegen nur oberflächlich:
Du sprichst damit an, dass IOTA mal für Ternäre-Systeme optimiert war (was nicht hieß, dass es auf binären Systemen nicht lief). Auf diesem Stand ist IOTA schon lange nicht mehr.

Du unterstellst hier einen Zwang. Man muss diese Hardware nicht benutzen und kann trotzdem Daten in den IOTA-DLT einspeisen. Mit zunehmender Adoption wird die Vertrauensfrage allerdings immer wichtiger.
Sorry, das geht zu sehr OT…

Zurück zu HGTP…

  • HGTP möchte ein sicheres und vertrauenswürdiges Kommunikationsprotoll sein
  • HGTP kann nicht die Korrektheit der Daten mit der realen Welt sicherstellen

Im letzten Punkt steckt übrigens das Oracle-Problem :wink:
Denn:

McWinston hat sich garkein Auto gekauft, sondern nur behauptet, dass es so ist. :grin:

1 „Gefällt mir“

Doch. Was soll das bitte sein? :joy:

Ernsthaft jetzt, was zur hölle ist das?

Um Orakel wie Chainlink teilweise zu ersetzen müsste es eine sichere Datenpipeline zwischen „Echtweltdaten“ also den Verbrauchern (z.B. Automobilindustrie) und der DLT geben.
(Chainlink selbst wird HGTP ebenso integrieren).

HGTP soll quasi HTTPS ersetzen (an Stellen wo es Sinn macht). Es funktioniert wie HTTPS aber bringt deutlich mehr Sicherheit und Möglichkeiten mit sich. Wenn die Kommunikation von Grund auf bzw an Ort des Entstehens über HGTP läuft vergrößert sich das geschlossene System Blockchain in die reale Welt. Somit könnte HGTP die Korrektheit der Daten mit der realen Welt sicherstellen, insofern man den Akteuren generell vertraut.

Die von dir genannten Kommunikationsprotokolle funktionieren nur innerhalb eines geschlossenen Systems. Als Daten-Pipeline ermöglicht HGTP also den sicheren Austausch von Daten welcher so nicht möglich war.

Du hast recht, dass oftmals eine Zentrale Instanz der man vertraut diese Daten sammelt/auswertet/bündelt oder diese natürlich nicht über Sensoren aufgenommen werden sondern vielleicht von Mitarbeitern rechnerisch ermittelt usw.

Doch wie ich es sehe werden in einigen Fällen die Orakel ersetzt werden können, sprich es muss nicht unbedingt eine Zentrale Instanz die Daten in die das System Blockchain überführen.

Vielleicht Irre ich mich auch komplett, ich habe kein computerscience studiert. Mit Datenübertragung kennen sich vermutlich viele hier besser aus. Daher falls ich Blödsinn erzähle bitte aufklären, aber bitte sachlich.

Der DOR trafic Miner ist kein Miner im Sinne eines POW Gerätes. Es geht darum, das zukünftig ein reward Pool entsteht für Personen die Nutzbare Daten dem Netzwerk bereitstellen.
Diese Daten hätten Beispielweise interessante Einblicke für Covid gegeben falls jene verfügbar gewesen wären (ausgewertet durch KI und anonym).
Der DOR-Miner ist nur der erste Schritt. Bald werden z.B. Personen die den Helium Miner verwenden die Möglichkeit haben die gesammelten Daten in das Hypergraph Netzwerk zu speisen und werden hierfür belohnt (der Rewardpool ist fix, soll glaube ich 5 mio $DAG pro Monat sein). Daher wird es sich am Anfang wohl lohnen, jedoch zu einem späten Zeitpunkt werden die rewards sehr gering, da viele Leute Daten einspeisen werden.

Was sind das für Daten? Wie viele Dudes durch eine dôr laufen?

Wieso sind diese Daten wertvoll?

Genau, Fußverkehr kann sehr interessante Daten liefern z.B. in einem Geschäft. Z.B. wann kommen wieviele Kunden (zu welchen Zeiten/Tagen). Kommen bei schlechten Wetter mehr oder weniger wenn ich XY ändere. Da musst du kreativ sein aber glaube mir solche Daten sind sehr nutzbar.

Genau, das sind dann interessante Daten für das Geschäft. Covid Daten sind interessant für Gesundheitsämter.

Inwiefern trägt das zur Sicherheit eines Netzwerks bei? Der „Wert“ der Daten ist indirekt.

Wer oder was verhindert in einem dezentralen Netzwerk dass ich mir diese Daten nicht einfach ausdenke?

Verstehe ich nicht.