Philipp Schmid - Google DeepMind | LinkedIn (original) (raw)
- Vinzent Wuttke Datasolut • 4K followers Die meisten Datenbanken wurden für eine Welt gebaut, die es heute nicht mehr gibt. Starre Skalierung. Monolithische Infrastruktur. Getrennte Systeme für Analytics, Applikationen und ML. Mit Databricks Lakebase versucht Databricks genau dieses Modell zu verändern. Nicht nur funktional, sondern architektonisch. Wenn man sich die Entwicklung von Datenbanken anschaut, lassen sich grob drei Generationen erkennen: 𝟭. 𝗞𝗹𝗮𝘀𝘀𝗶𝘀𝗰𝗵𝗲 𝗗𝗮𝘁𝗲𝗻𝗯𝗮𝗻𝗸𝗲𝗻 Monolithische Systeme. Storage, Compute und Transaktionslogik sind eng gekoppelt. Skalierung bedeutet meist: größere Maschinen. 𝟮. 𝗖𝗹𝗼𝘂𝗱-𝗼𝗽𝘁𝗶𝗺𝗶𝗲𝗿𝘁𝗲 𝗗𝗮𝘁𝗲𝗻𝗯𝗮𝗻𝗸𝗲𝗻 Mehr Elastizität. Aber weiterhin getrennte Welten: OLTP-Systeme für Applikationen. Lakehouses für Analytics und Machine Learning. Das Ergebnis: Mehr Infrastruktur. Mehr Synchronisation. Mehr Datenkopien. 𝗟𝗮𝗸𝗲𝗯𝗮𝘀𝗲 𝘃𝗲𝗿𝗳𝗼𝗹𝗴𝘁 𝗲𝗶𝗻𝗲𝗻 𝗮𝗻𝗱𝗲𝗿𝗲𝗻 𝗔𝗻𝘀𝗮𝘁𝘇. Mehrere Architekturprinzipien stechen dabei hervor. 𝗢𝗳𝗳𝗲𝗻𝗲𝗿 𝗦𝘁𝗼𝗿𝗮𝗴𝗲: Die Daten liegen in offenen Formaten im Cloud Storage. Das reduziert Vendor-Lock-in und macht Daten über Tools hinweg nutzbar. 𝗦𝗲𝗿𝘃𝗲𝗿𝗹𝗲𝘀𝘀 𝗢𝗽𝗲𝗿𝗮𝘁𝗶𝗼𝗻𝘀: Compute skaliert automatisch und kann auch vollständig herunterfahren. Keine dauerhaft laufenden Datenbank-Cluster. Compute läuft nur, wenn er benötigt wird. 𝗗𝗮𝘁𝗮𝗯𝗮𝘀𝗲 𝗕𝗿𝗮𝗻𝗰𝗵𝗶𝗻𝗴 & 𝗜𝗻𝘀𝘁𝗮𝗻𝘁 𝗖𝗹𝗼𝗻𝗲𝘀: Datenbanken lassen sich ähnlich wie Code versionieren. Neue Umgebungen entstehen in Sekunden. Experimente oder Tests benötigen keine vollständigen Datenkopien. Das beschleunigt Entwicklungs- und Testing-Workflows erheblich. 𝗘𝗶𝗻𝗵𝗲𝗶𝘁𝗹𝗶𝗰𝗵𝗲 𝗣𝗹𝗮𝘁𝘁𝗳𝗼𝗿𝗺 𝗳ü𝗿 𝗗𝗮𝘁𝗲𝗻-𝗪𝗼𝗿𝗸𝗹𝗼𝗮𝗱𝘀: Transaktionale Workloads, Analytics und Machine Learning können auf derselben Plattform laufen. Mit gemeinsamer Governance, gemeinsamen Daten und deutlich weniger Integrationsaufwand. 𝗗𝗮𝘀 𝗘𝗿𝗴𝗲𝗯𝗻𝗶𝘀? Architektonisch verschiebt sich damit ein grundlegendes Paradigma. Nicht mehr mehrere spezialisierte Datenbanken für unterschiedliche Workloads. Sondern eine Plattform, die: - Analytics - Transaktionen - Machine Learning - und moderne Daten-Applikationen gemeinsam abbilden kann. Gerade für Unternehmen, die aktuell ihre Datenplattform modernisieren, stellt sich damit eine neue Frage: Bauen wir weiterhin komplexe Architekturen aus vielen spezialisierten Systemen? Oder konsolidieren wir Daten-Workloads stärker auf einer Plattform? _________________ Hi, ich bin Vinzent, Geschäftsführer von Datasolut. Wir liefern maßgeschneiderte KI-Lösungen und Lakehouse-Architekturen in der Cloud. Wenn du mehr wissen willst, freue ich mich über deine(n) Anfrage/Follow auf Vinzent Wuttke.
- Matthias Hüther iits-consulting • 103 followers Am 16. März 2026 haben wir kubara als Open Source veröffentlicht. Für mich persönlich ist das ein großer Meilenstein: Ich bin seit genau einem Jahr im Projekt dabei. Was als Inner Source gestartet ist, ist jetzt öffentlich. kubara ist ein GitOps-first Framework für Platform Engineers, um Kubernetes-Plattformen schnell und strukturiert aufzubauen. Der große Unterschied für mich: Wir liefern nicht nur Bausteine, sondern einen kuratieren, getesteten und regelmäßig aktualisierten Stack. Das Zusammenspiel der Komponenten testen wir automatisiert auf echten Kubernetes-Clustern. Wichtig: Mit „managed“ meinen wir keinen bezahlten Service, sondern einen praxiserprobten Ansatz, den ihr als kostenloses Open-Source-Produkt nutzen könnt. Außerdem bringen wir viele sinnvolle Security Best Practices und Policies direkt mit plus klare Betriebs-Pattern. In kubara steckt die Erfahrung aus mehreren Jahren Projektarbeit von mehreren Senior DevOps / CloudOps Engineers. Zum Stack gehören u. a. Argo CD, cert-manager, External Secrets, Kyverno, Traefik, ExternalDNS, kube-prometheus-stack, Loki und OAuth2 Proxy. Und trotzdem bleibt alles modular und erweiterbar. Wir haben noch einiges vor: HA, Scaling und mehr unterstützte Cloud-Provider im Terraform-Teil stehen auf der Roadmap. Der erste große Meilenstein ist aber geschafft. Wenn ihr uns unterstützen wollt: Gebt uns gerne einen Stern auf GitHub ⭐ https://lnkd.in/ev_MgbwN https://kubara.io https://docs.kubara.io #opensource #kubernetes #platformengineering #gitops #argocd #terraform #helm #security #devops
- Julien Kollmann synsugar • 223 followers "Master Physik und jetzt AI Consultant – wie passt das eigentlich zusammen?" Das werde ich in letzter Zeit ständig gefragt, wenn ich im Innkubator (dem Startup Hub hier in Passau) neue Leute kennenlerne. Die ehrliche Antwort: Erstaunlich gut. Selbst mathematisch gesehen machen wir oft exakt dasselbe. Ob ich in der Physik den stabilsten Zustand eines Systems berechne oder beim Machine Learning den Fehler minimiere (L2-Loss) - am Ende sucht man immer nach dem optimalen Minimum. Und das ist nur eines von vielen Beispielen. Aber mein persönlicher roter Faden ist nicht die Mathematik. Es ist das Mindset. Der Kern von beidem ist für mich das Experimentieren. In meinen Zeit im R&D-Bereich (Data & ML mit MATLAB und Python) gab es eine klare Wahrheit: Hypothesen aufstellen, systematisch testen, Daten auswerten und iterieren. Genau das mache ich heute beim Bauen moderner AI-Applikationen bei synsugar. Egal, ob ich an einer RAG-Architektur arbeite, LLM-Outputs evaluiere oder mit Next.js und Vercel neue MVPs baue - man gießt eine Hypothese in Code, misst den Impact und passt an. Der Tech-Stack hat sich geändert. Die wissenschaftliche Herangehensweise ist geblieben. Ich habe mir vorgenommen, LinkedIn ab jetzt öfter zu nutzen und einfach mal ungefilterte Einblicke aus meinem Tech- und Startup-Alltag zu teilen. Mal schauen, ob es hier Leute gibt, die diese Themenkombination interessiert. Wenn ihr auch an der Schnittstelle von AI, Development und Daten baut, sagt gerne Hallo!
- Bianca J. Schulz 77Applied • 354 followers Was hat Fränkischer Fasching mit großen KI-Initiativen zu tun?!? Bei großen KI-Initiativen braucht man mehrere Abteilungen, nicht nur die Data und AI Teams. Als Data & AI Leader kann man aber nicht einfach so über andere Abteilungen "bestimmen". Des Weiteren sehen alle, die bereits KI-Initiativen gestartet haben, dass dies in jedem Falle eine größere Transformation im eigenen Unternehmen bewirken wird. Ich war bei mehreren erfolgreichen Transformationen in großen Unternehmen mit dabei (damals noch ohne KI, aber auch mit großer Komplexität und neuer Technologie) und wollte abstrahieren, was denn die Faktoren für den Erfolg waren. Ich selbst bin auch davon überzeugt, dass der größte Erfolg dann entstehen wird, wenn KI auf eine menschliche Art und Weise und zum Nutzen der Kunden und Mitarbeiter verwendet wird, denn erst dann kann das volle kreative Potential ausgeschöpft werden. Aber wie soll ich meine Überzeugung "beweisen"?? Damit man nicht gleich wieder in den üblichen Bahnen des eigenen Unternehmens denkt, habe ich ein Beispiel gesucht. Eine Kultur, die Tausende von Menschen dazu veranlasst, ihre gesamte Freizeit unentgeltlich zu investieren, und die dabei auch große professionelle Veranstaltungen wuppt. Ich hab die Eigenschaften abgeleitet und siehe da! Alle Eigenschaften waren auch in den Unternehmen vorhanden! Man kann also die fränkische Kultur als Blaupause für Unternehmenskultur verwenden und das macht mich als Franke schon ein bisschen stolz 🙂 Hier der Beweis:
- Dennis Scheufler scheufler.it GmbH • 2K followers Die meistgenutzten Tools im Data Engineering sind heute keine Überraschung mehr. Überraschend ist, wie stark sich der Fokus verschoben hat. Vor einigen Jahren drehte sich Data Engineering in vielen Projekten vor allem um eines: ETL-Tools. Daten extrahieren. Transformieren. Laden. Der Technologie-Stack war häufig klar definiert – und oft stark an einzelne Hersteller gebunden. Heute sieht das Bild deutlich anders aus. Ein modernes Data-Engineering-Setup besteht nicht mehr aus einem großen Tool, sondern aus mehreren spezialisierten Bausteinen. Die Idee dahinter ist einfach: Jedes Tool löst ein klar abgegrenztes Problem. Zusammen entsteht eine flexible Datenplattform. Typische Bausteine, die heute in vielen Projekten auftauchen: Datenplattformen wie Snowflake, Databricks oder BigQuery. Transformationsframeworks wie dbt. Orchestrierung über Airflow oder ähnliche Scheduler. Datenintegration über Tools wie Fivetran, Airbyte oder dlt. Und natürlich Versionskontrolle über Git. Der Tool-Stack allein löst allerdings noch kein Problem. Viele Unternehmen stellen fest, dass die eigentliche Herausforderung nicht darin liegt neue Tools einzuführen. Sondern darin, sie sinnvoll zusammenzubringen. Ohne klare Architektur entstehen schnell typische Pain Points: Unklare Verantwortlichkeiten zwischen Tools. Transformationslogik verteilt über mehrere Ebenen. Fehlende Transparenz über Datenflüsse. Pipelines, die schwer zu warten sind. Ein moderner Data Stack funktioniert dann gut, wenn die Rollen der einzelnen Komponenten klar sind. Die Datenplattform kümmert sich um Speicherung und Skalierung. Transformationen werden strukturiert modelliert. Orchestrierung steuert Abhängigkeiten. Datenqualität wird automatisiert überprüft. Das Ziel ist nicht, möglichst viele Tools einzusetzen. Sondern ein Setup zu schaffen, das nachvollziehbar, wartbar und langfristig stabil bleibt. Der Nutzen eines modernen Data-Engineering-Stacks zeigt sich vor allem im Alltag. Teams verbringen weniger Zeit mit manuellen Prozessen. Änderungen lassen sich kontrollierter umsetzen. Datenplattformen werden stabiler. Das reduziert typische Schmerzen in Datenprojekten: Lange Fehleranalysen, fragile Pipelines, Diskussionen über unterschiedliche Zahlenstände. Die Tools selbst sind dabei nur Mittel zum Zweck. Entscheidend ist, wie gut sie zusammenarbeiten. Welche Tools sind aktuell zentrale Bestandteile eures Data-Engineering-Stacks? #DataEngineering
- Thomas Manthey codecentric AG • 1K followers "KI generierte Bilder haben mittlerweile ein Niveau erreicht, das selbst erfahrene Betrachter vor echte Herausforderungen stellt. Was früher auf den ersten Blick erkennbar war, ist heute oft nicht mehr von einer authentischen Fotografie zu unterscheiden. Wer Bilder im digitalen Zeitalter unkritisch konsumiert, läuft Gefahr, gezielter Desinformation zum Opfer zu fallen. Eine verlässliche Einschätzung erfordert daher immer mehrere Prüfebenen gleichzeitig, da keine einzelne Methode für sich allein ausreicht. Ein wichtiger Anhaltspunkt bleibt dabei die digitale Spur, die echte Aufnahmen hinterlassen und die bei KI generierten Bildern häufig vollständig fehlt. Das grundlegende Problem unserer Zeit ist jedoch, dass die Technologie zur Bilderzeugung der Fähigkeit zu ihrer Erkennung konsequent einen Schritt voraus ist." Wie man trotzdem nicht den Anschluss verliert und was man tun kann, um mit wenigen Schritten ein gutes Gefühl zu bekommen, ob ein Bild mit KI generiert wurde oder nicht, könnt ihr in diesem Blogartikel nachlesen. https://lnkd.in/eVEvHt3Y
- Adrian Lorenz GovRadar • 194 followers 🔐 Schickt euer AI-Agent gerade eure Secrets an ein LLM? Viele Teams bauen aktuell AI-Agents, die mit externen LLM-APIs arbeiten. Dabei entsteht ein oft unterschätztes Risiko: Secrets und sensible Daten landen im Prompt. Zum Beispiel: • API Keys • Tokens • interne URLs • Zugangsdaten • E-Mails oder andere personenbezogene Daten Gerade wenn Agents Logs, Configs, Fehlermeldungen oder ganze Dokumente analysieren, können solche Informationen unbemerkt an externe Modelle gesendet werden. Ich arbeite deshalb gerade an einem kleinen Side-Project: Privacy Guard Proxy Die Idee: Ein Agent / LLM Proxy, der zwischen Anwendung bzw. Agent und externen AI-APIs sitzt. Bevor ein Prompt nach außen geht, erkennt der Proxy automatisch Secrets und sensible Daten und ersetzt sie durch stabile Platzhalter. Beispiel: sk-live-123abc → [API_KEY_1] postgres://user:password@db → [DB_SECRET_1] max@firma.de → [EMAIL_1] Das LLM sieht also niemals die echten Secrets. Nach der Antwort können die Werte bei Bedarf deterministisch wieder eingesetzt werden. Damit entsteht eine zusätzliche Security- und Compliance-Schicht für AI-Agents. Gerade im europäischen Kontext wird das spannend, z. B.: • DSGVO / GDPR – Schutz personenbezogener Daten • EU AI Act – kontrollierter Einsatz von KI • Data Minimization bei Nutzung externer Dienste Ich glaube, dass wir künftig eine neue Infrastruktur-Komponente sehen werden: 👉 AI Security Gateways / Agent Proxies Das Projekt ist aktuell noch Work in Progress, aber der erste Prototyp funktioniert bereits überraschend gut. Mich würde interessieren: Wie verhindert ihr aktuell, dass eure AI-Agents Secrets oder Tokens an LLM-APIs senden? Repo: https://lnkd.in/dUYPjdMs #AI #LLM #AIsecurity #SecretsManagement #AgenticAI #DSGVO #EUAIACT #Security #OpenSource