The EU has issued its plans to keep the continent's denizens secure and among the pages of bureaucratese are a few worrying sections that indicate the political union wants to backdoor encryption by 2026, or even sooner.…
Een groep onbewoonde, met gletsjers bedekte vulkaaneilanden bij Antarctica is onverwacht onderdeel geworden van Donald Trumps handelsoorlog. Op de lijst van landen met een importtarief van 10 procent die de Amerikaanse regering heeft opgesteld, staan namelijk ook de Heard- en McDonaldeilanden.
Om je een idee te geven: deze afgelegen Australische territoria zijn enkel per schip te bereiken en dan ben je twee weken aan het varen. Behalve een paar pinguïns woont er niemand. De laatste menselijke bezoekers dateren van een jaar of tien geleden.
Premier Anthony Albanese concludeerde donderdag dan ook: "Nergens op aarde is het nog veilig." Naast de Heard- en McDonaldeilanden staan ook andere Australische buitengebieden, zoals de Keeling Eilanden, Christmas Island en Norfolk Island, apart op de lijst, terwijl ze in principe gewoon onderdeel zijn van Australië.
Voor Norfolk Island, een Australisch eiland met slechts 2188 inwoners, is de situatie nog schrijnender. Het krijgt een invoertarief opgelegd van maar liefst 29 procent, 19 procent meer dan de rest van Australië. In 2023 exporteerde Norfolk Island voor ongeveer 655.000 dollar aan goederen naar de VS, waarvan 413.000 dollar aan leren schoenen.
Maar George Plant, de bestuurder van Norfolk Island, is het niet eens met deze cijfers. Hij verklaarde tegenover The Guardian: "Er is geen export bekend van Norfolk Island naar de Verenigde Staten en er zijn geen tarieven of handelsbelemmeringen bekend voor goederen die naar Norfolk Island komen."
De handel met de Heard- en McDonaldeilanden roept nog meer vragen op. Het territorium heeft weliswaar een visserijsector, maar er zijn geen gebouwen of menselijke bewoners. Toch blijkt uit gegevens van de Wereldbank dat de VS in 2022 voor 1,4 miljoen dollar aan goederen van deze eilanden importeerde, voornamelijk in de categorie machines en elektronica. Wat deze producten precies zijn en hoe ze van de onbewoonde eilanden naar de VS kwamen, blijft onduidelijk.
In de vijf jaar daarvoor schommelden de importcijfers uit dit gebied tussen de 15.000 en 325.000 dollar per jaar, wat deze plotselinge stijging nog mysterieuzer maakt. Noch het Witte Huis, noch de Australische ministeries van Buitenlandse Zaken en Handel hebben een verklaring gegeven.
Dat Trump zelfs importtarieven oplegt aan dergelijke afgelegen gebieden zegt wel iets over hoe ondoordacht zijn beleid is. Het gaat om landen die geen landen zijn en waar bovendien niet of nauwelijks mensen wonen.
Bron: The Guardian
WINDSOR (ANP/AFP) - De Amerikaans-Europese autofabrikant Stellantis gaat zijn Chrysler-fabriek in de Canadese stad Windsor voor twee weken tijdelijk sluiten om de productie aan te passen aan de hoge importheffingen van de Amerikaanse president Donald Trump.
"Het is een van de maatregelen die we onmiddellijk moeten nemen", zegt een woordvoerster van het concern, eigenaar van onder meer Jeep, Dodge en RAM. De fabriek, een van de drie die Stellantis in Canada heeft, produceert de Chrysler Pacifica-minivan en de elektrische Dodge Charger. De productiefaciliteit ligt net aan de overkant van de rivier van Detroit en biedt werk aan ongeveer 4000 mensen.
Autofabrikanten krijgen vanaf donderdag te maken met invoerheffingen van 25 procent op auto's en lichte vrachtwagens die de Verenigde Staten worden ingevoerd.
UGCHELEN (ANP) - De brand afgelopen weekeinde in een voormalige noodopvang voor asielzoekers in het Gelderse dorp Ugchelen is aangestoken. Dat laat de politie donderdag weten na onderzoek. De brandweer had meerdere zogeheten brandhaarden aangetroffen, plekken waar het vuur is ontstaan.
Het pand aan de Nijenbeek stond leeg. Vroeger was het basisschool de Bouwhof. In oktober maakte de gemeente Apeldoorn, waar Ugchelen in ligt, bekend dat het gebouw een 'overloop' voor asielzoekers zou worden. Als het aanmeldcentrum in Ter Apel geen plek voor ze had, zouden ze in Ugchelen de nacht kunnen doorbrengen, om te voorkomen dat ze in het gras zouden moeten slapen. De voormalige school had plek voor zo'n honderd asielzoekers.
Ongeveer een week na de bekendmaking, zo'n twee dagen voor de opening van de noodopvang, was er een explosie bij de ingang van het gebouw. Die raakte daardoor beschadigd. De opening werd uitgesteld. Een paar dagen later was er een harde knal bij de gymzaal van de voormalige school.
De locatie is uiteindelijk twee nachten gebruikt als noodopvang. De eerste nacht verliep rustig, maar de tweede avond werden de asielzoekers en COA-medewerkers opgewacht door dorpsbewoners.
WENEN (ANP/BLOOMBERG) - De landen van oliekartel OPEC+ voeren volgende maand een grotere productieverhoging door dan verwacht. Het kartel, dat wordt geleid door Saudi-Arabië en Rusland, is het hierover eens geworden. Prijzen voor olie gingen daarop hard omlaag, wat voor automobilisten een voordeel kan zijn aan de pomp.
Het kartel verhoogt de productie vanaf 1 mei met 411.000 vaten per dag. De belangrijke olielanden hebben de afgelopen jaren de productie beperkt om de prijzen hoog te houden. Eerder werd al bekend dat de landen, waar bijvoorbeeld ook Irak, Koeweit en de Verenigde Arabische Emiraten bij horen, de productie geleidelijk weer opvoeren. Daar begon OPEC+ deze maand mee, nadat de verhoging meerdere keren was uitgesteld.
De prijzen gingen eerder op de dag al omlaag, door zorgen over een mogelijke wereldwijde handelsoorlog na de bekendmaking van de nieuwe importheffingen door Donald Trump. Een vat Brentolie zakte woensdagmiddag 6 procent in prijs tot 70,42 dollar.
If you’ve ever taken a computer security class, you’ve probably learned about the three legs of computer security—confidentiality, integrity, and availability—known as the CIA triad. When we talk about a system being secure, that’s what we’re referring to. All are important, but to different degrees in different contexts. In a world populated by artificial intelligence (AI) systems and artificial intelligent agents, integrity will be paramount.
What is data integrity? It’s ensuring that no one can modify data—that’s the security angle—but it’s much more than that. It encompasses accuracy, completeness, and quality of data—all over both time and space. It’s preventing accidental data loss; the “undo” button is a primitive integrity measure. It’s also making sure that data is accurate when it’s collected—that it comes from a trustworthy source, that nothing important is missing, and that it doesn’t change as it moves from format to format. The ability to restart your computer is another integrity measure.
The CIA triad has evolved with the Internet. The first iteration of the Web—Web 1.0 of the 1990s and early 2000s—prioritized availability. This era saw organizations and individuals rush to digitize their content, creating what has become an unprecedented repository of human knowledge. Organizations worldwide established their digital presence, leading to massive digitization projects where quantity took precedence over quality. The emphasis on making information available overshadowed other concerns.
As Web technologies matured, the focus shifted to protecting the vast amounts of data flowing through online systems. This is Web 2.0: the Internet of today. Interactive features and user-generated content transformed the Web from a read-only medium to a participatory platform. The increase in personal data, and the emergence of interactive platforms for e-commerce, social media, and online everything demanded both data protection and user privacy. Confidentiality became paramount.
We stand at the threshold of a new Web paradigm: Web 3.0. This is a distributed, decentralized, intelligent Web. Peer-to-peer social-networking systems promise to break the tech monopolies’ control on how we interact with each other. Tim Berners-Lee’s open W3C protocol, Solid, represents a fundamental shift in how we think about data ownership and control. A future filled with AI agents requires verifiable, trustworthy personal data and computation. In this world, data integrity takes center stage.
For example, the 5G communications revolution isn’t just about faster access to videos; it’s about Internet-connected things talking to other Internet-connected things without our intervention. Without data integrity, for example, there’s no real-time car-to-car communications about road movements and conditions. There’s no drone swarm coordination, smart power grid, or reliable mesh networking. And there’s no way to securely empower AI agents.
In particular, AI systems require robust integrity controls because of how they process data. This means technical controls to ensure data is accurate, that its meaning is preserved as it is processed, that it produces reliable results, and that humans can reliably alter it when it’s wrong. Just as a scientific instrument must be calibrated to measure reality accurately, AI systems need integrity controls that preserve the connection between their data and ground truth.
This goes beyond preventing data tampering. It means building systems that maintain verifiable chains of trust between their inputs, processing, and outputs, so humans can understand and validate what the AI is doing. AI systems need clean, consistent, and verifiable control processes to learn and make decisions effectively. Without this foundation of verifiable truth, AI systems risk becoming a series of opaque boxes.
Recent history provides many sobering examples of integrity failures that naturally undermine public trust in AI systems. Machine-learning (ML) models trained without thought on expansive datasets have produced predictably biased results in hiring systems. Autonomous vehicles with incorrect data have made incorrect—and fatal—decisions. Medical diagnosis systems have given flawed recommendations without being able to explain themselves. A lack of integrity controls undermines AI systems and harms people who depend on them.
They also highlight how AI integrity failures can manifest at multiple levels of system operation. At the training level, data may be subtly corrupted or biased even before model development begins. At the model level, mathematical foundations and training processes can introduce new integrity issues even with clean data. During execution, environmental changes and runtime modifications can corrupt previously valid models. And at the output level, the challenge of verifying AI-generated content and tracking it through system chains creates new integrity concerns. Each level compounds the challenges of the ones before it, ultimately manifesting in human costs, such as reinforced biases and diminished agency.
Think of it like protecting a house. You don’t just lock a door; you also use safe concrete foundations, sturdy framing, a durable roof, secure double-pane windows, and maybe motion-sensor cameras. Similarly, we need digital security at every layer to ensure the whole system can be trusted.
This layered approach to understanding security becomes increasingly critical as AI systems grow in complexity and autonomy, particularly with large language models (LLMs) and deep-learning systems making high-stakes decisions. We need to verify the integrity of each layer when building and deploying digital systems that impact human lives and societal outcomes.
At the foundation level, bits are stored in computer hardware. This represents the most basic encoding of our data, model weights, and computational instructions. The next layer up is the file system architecture: the way those binary sequences are organized into structured files and directories that a computer can efficiently access and process. In AI systems, this includes how we store and organize training data, model checkpoints, and hyperparameter configurations.
On top of that are the application layers—the programs and frameworks, such as PyTorch and TensorFlow, that allow us to train models, process data, and generate outputs. This layer handles the complex mathematics of neural networks, gradient descent, and other ML operations.
Finally, at the user-interface level, we have visualization and interaction systems—what humans actually see and engage with. For AI systems, this could be everything from confidence scores and prediction probabilities to generated text and images or autonomous robot movements.
Why does this layered perspective matter? Vulnerabilities and integrity issues can manifest at any level, so understanding these layers helps security experts and AI researchers perform comprehensive threat modeling. This enables the implementation of defense-in-depth strategies—from cryptographic verification of training data to robust model architectures to interpretable outputs. This multi-layered security approach becomes especially crucial as AI systems take on more autonomous decision-making roles in critical domains such as healthcare, finance, and public safety. We must ensure integrity and reliability at every level of the stack.
The risks of deploying AI without proper integrity control measures are severe and often underappreciated. When AI systems operate without sufficient security measures to handle corrupted or manipulated data, they can produce subtly flawed outputs that appear valid on the surface. The failures can cascade through interconnected systems, amplifying errors and biases. Without proper integrity controls, an AI system might train on polluted data, make decisions based on misleading assumptions, or have outputs altered without detection. The results of this can range from degraded performance to catastrophic failures.
We see four areas where integrity is paramount in this Web 3.0 world. The first is granular access, which allows users and organizations to maintain precise control over who can access and modify what information and for what purposes. The second is authentication—much more nuanced than the simple “Who are you?” authentication mechanisms of today—which ensures that data access is properly verified and authorized at every step. The third is transparent data ownership, which allows data owners to know when and how their data is used and creates an auditable trail of data providence. Finally, the fourth is access standardization: common interfaces and protocols that enable consistent data access while maintaining security.
Luckily, we’re not starting from scratch. There are open W3C protocols that address some of this: decentralized identifiers for verifiable digital identity, the verifiable credentials data model for expressing digital credentials, ActivityPub for decentralized social networking (that’s what Mastodon uses), Solid for distributed data storage and retrieval, and WebAuthn for strong authentication standards. By providing standardized ways to verify data provenance and maintain data integrity throughout its lifecycle, Web 3.0 creates the trusted environment that AI systems require to operate reliably. This architectural leap for integrity control in the hands of users helps ensure that data remains trustworthy from generation and collection through processing and storage.
Integrity is essential to trust, on both technical and human levels. Looking forward, integrity controls will fundamentally shape AI development by moving from optional features to core architectural requirements, much as SSL certificates evolved from a banking luxury to a baseline expectation for any Web service.
Web 3.0 protocols can build integrity controls into their foundation, creating a more reliable infrastructure for AI systems. Today, we take availability for granted; anything less than 100% uptime for critical websites is intolerable. In the future, we will need the same assurances for integrity. Success will require following practical guidelines for maintaining data integrity throughout the AI lifecycle—from data collection through model training and finally to deployment, use, and evolution. These guidelines will address not just technical controls but also governance structures and human oversight, similar to how privacy policies evolved from legal boilerplate into comprehensive frameworks for data stewardship. Common standards and protocols, developed through industry collaboration and regulatory frameworks, will ensure consistent integrity controls across different AI systems and applications.
Just as the HTTPS protocol created a foundation for trusted e-commerce, it’s time for new integrity-focused standards to enable the trusted AI services of tomorrow.
This essay was written with Davi Ottenheimer, and originally appeared in Communications of the ACM.
Context: onduidelijk dus ze zal het er wel weer naar gemaakt hebben, dat heb je het namelijk nogal snel met dit SOORT. Aan het einde van de video zit een kort fragment dat de mishandeling inluidt, en daarin valt te horen dat de dame zegt: "(...) Problemen mee?", waarop de 'man' antwoordt: "Nee, maar jij wel". Kortom, de Socratische dialoog die vooraf gaat aan de meeste van dit soort zware geweldplegingen, die gek genoeg nou nooit eens binnen de eigen gemeenschap plaatsvindt, behalve bij eerwraak. Enfin, Amsterdam!