Om Premiss
Exakt hur stor påverkan artificiell intelligens kommer att ha på samhället är föremål för konstant debatt. Vår uppfattning är att det finns en verklig möjlighet att artificiell intelligens blir bättre än mänsklig intelligens på i princip allt intellektuellt arbete.
Premiss syfte är att bidra till en reform av Sveriges demokratiska, ekonomiska och rättsliga institutioner för att stärka människans frihet, trygghet, lycka och autonomi i en era präglad av artificiell intelligens och ökad automatisering.
Utmaningen är inte främst att vara tekniskt först. Den verkliga frågan är om våra demokratiska, rättsliga och ekonomiska institutioner hänger med.
Maskiner kommer i allt högre grad att ta över kognitivt arbete som idag utförs av människor. Det kommer att innebära en systemförändring som påverkar själva grunden för arbete, ägande, maktutövande och demokratiskt deltagande.
Sverige måste ta ett nytt grepp på beskattning av arbete och kapital när AI tar över allt fler uppgifter.
Teknologisk utveckling får aldrig urholka individens rätt till privatliv, rättssäkerhet, likabehandling och yttrandefrihet.
Vår utgångspunkt är att Sverige och Europa aktivt måste forma AI-utvecklingen.
Vi verkar genom kunskapsspridning och opinionsbildning.
Vi som står bakom Premiss är en blandad grupp personer som bryr sig om demokrati och frihet i bred bemärkelse. Vissa av oss har bakgrund som AI-forskare och agent-utvecklare. Vi representerar ingen traditionell partipolitisk inriktning.
Kontakt: info@premiss.se
Förslagstavlan — Policy
Våra policyförslag för en framtid med AI. Konkreta förslag för AI-reglering, demokrati och samhällsförändring.
Det finns väldigt lite konkret policy för ett samhälle med kraftfull artificiell intelligens. Vi menar att det är bråttom, och denna sida är därför ett första utkast på policys.
Publik AI
Kategori: Resiliens
Utveckla en öppen, statligt ägd språkmodell med full transparens kring träningsdata, säkerhetslager och styrning.
Förslag
Utveckla en öppen språkmodell gemensamt utvecklad och ägd av europeiska länder.
Skapa full transparens kring träningsdata, säkerhetslager och styrning
Uppdra offentlig sektor att använda denna modell som standard
Motivering
**Syfte:** Riskmitigering, kostnadskontroll, ökad tillit och demokratisk insyn. Maximal prestanda är sekundärt jämfört med tillit och transparens i många offentliga och statliga användningsområden.
Liknande initiativ har redan drivits framgångsrikt i Schweiz: https://www.swiss-ai.org/apertus
English: Public AI
Develop an open, state-owned language model with full transparency regarding training data, safety layers, and governance.
Proposal
Develop an open language model developed and owned jointly by European countries.
Create full transparency around training data, safety layers, and governance
Instruct the public sector to use this model as the default
Rationale
**Purpose:** Risk mitigation, cost control, increased trust, and democratic oversight. In many public and governmental use cases, maximum performance is secondary to trust and transparency.
Similar initiatives have already been successfully launched in Switzerland: https://www.swiss-ai.org/apertus
Barns rättigheter i cyberdomänen
Kategori: Mänskliga rättigheter
Breddad tillämpning av lagstiftningen kring barns oförmåga att lämna samtycke till datainsamling – särskilt gällande AI-companionsamtal.
Förslag
Tillämpa lagen om att barn inte kan lämna samtycke även på cyberdomänen.
Barn kan inte godkänna ett GDPR-query
Endast vuxna kan godkänna användarvillkor för barn
Nuvarande lagstiftning har luckor som behöver täppas till för att skydda barns integritet i en tid av AI-companions
Motivering
Vi vill inte att företag ska skapa detaljerade profiler eller kartlägga generella mönster på barns känslomässiga status genom deras uppväxt. Detta är redan olagligt. Det är dock **inte olagligt** att spara chattar från barn som kommunicerar med companion-AIs eller andra bottar så länge man inte uttryckligen profilerar.
English: Children's Rights in the Cyber Domain
Apply the legislation on children's inability to consent to data collection – particularly regarding AI companion conversations.
Proposal
Apply the legislation around children's inability to consent to the cyber domain.
Children cannot approve a GDPR query
Only adults can approve terms of service for children
Current legislation has gaps that need to be closed to protect children's privacy in an era of AI companions
Motivation
We do not want companies to create detailed profiles or derive general patterns of children’s emotional states throughout their upbringing. This is already illegal. However, it is not illegal to store chats from children who communicate with companion AIs or other bots, as long as no explicit profiling is carried out.
Löneandelsavgift
Kategori: Ekonomi
En avgift kopplad till företagets löneandel som beskattar automatiserad produktivitet utan att behöva definiera vilken teknik som orsakade den.
Bakgrund
Rapporter inom EU, OECD och i akademin beskriver en brist på utarbetade, effektiva lösningar på hur beskattning ska fungera när AI och automatisering ersätter mänskligt arbete. Det är nödvändigt att introducera nya skattesystem för att garantera att staten fortsatt finansieras då behovet av mänskligt arbete minskar.
Förslag
Ett robust alternativ som diskuteras i den ekonomiska litteraturen är en avgift kopplad till företagets **löneandel** – det värde bolaget skapar som faktiskt tillfaller anställda i form av lön, i stället för att stanna som kapitalavkastning.
När ett företag automatiserar bort arbete sjunker löneandelen. En avgift som aktiveras när löneandelen faller under ett branschjusterat normalintervall skulle beskatta produktivitet utan att behöva definiera vilken teknik som orsakade den.
Utformning
Modellen kan utformas som en **arbetsgivaravgift** snarare än en bolagsskatt
Den blir då svårare att planera bort via internprissättning och mer förenlig med EU-rätten
Den kan kombineras med en **bonusstruktur** där sänkta avgifter för nyanställningar och omställningsinvesteringar dämpar incitamenten att minimera personalstyrkanEnglish: Labour Share Levy
A levy tied to a company's labour share that taxes automated productivity without needing to define which technology caused it.
Background
Reports from the EU, OECD, and academia describe a lack of developed, effective solutions to how taxation should function when AI and automation replace human labour.
Proposal
A robust alternative discussed in the economic literature is a levy tied to a company's **labour share** – the value a company creates that actually goes to employees as wages, rather than remaining as capital returns.
When a company automates away work, the labour share falls. A levy that activates when the labour share drops below an industry-adjusted normal range would tax productivity without needing to define which technology caused it.
Design
The model can be designed as an **employer contribution** rather than a corporate tax
This makes it harder to avoid through transfer pricing and more compatible with EU law
It can be combined with a **bonus structure** where reduced fees for new hires and reskilling investments dampen incentives to minimise headcount
Meningsfullhet som samhällsmål
Kategori: Mänskliga rättigheter
Skifta statens mål från enbart ekonomisk tillväxt till existentiellt välbefinnande. Mät meningsfullhet, lycka och gemenskap.
Förslag
Uppdra SCB att mäta **meningsfullhet**, sociala relationer och välbefinnande
Rikta finansiering till ändamål som ökar känslan av meningsfullhet, sociala relationer och välbefinnande
Motivering
**Syfte:** Att skifta statens mål från enbart ekonomisk tillväxt till existentiellt välbefinnande.
Om arbete blir mindre centralt och tillväxt alltmer frånkopplat löneökningar och samhällets välbefinnande i stort, behöver politiken aktivt främja sociala relationer, gemenskap och kulturell delaktighet.
English: Meaningfulness as a Societal Goal
Shift the state's objectives from purely economic growth to existential well-being. Measure meaningfulness, happiness, and community.
Proposal
Task Statistics Sweden (SCB) with measuring meaningfulness, social relationships, and well‑being
Direct funding toward initiatives that increase the sense of meaningfulness, social relationships, and well‑being
Rationale
**Purpose:** To shift the state’s goals from solely economic growth to existential well‑being.
If work becomes less central, and economic growth becomes increasingly decoupled from wage increases and overall societal well‑being, then policy must actively promote social relationships, community, and cultural participation.
Proof-of-Humanity
Kategori: Demokrati
Alla medier måste kräva zero-knowledge verifiering av mänsklighet och tydligt markera vilka konton som drivs av bottar respektive människor och varifrån människorna kommer.
Förslag
Alla medier måste kräva **zero-knowledge verifiering av mänsklighet** samt tydligt markera vilka konton som är drivna av bottar och vilka som är drivna av människor.
Motivering
**Syfte:** Återupprätta förtroendet för digitala rum och försvåra påverkansoperationer och bedrägeri.
En förutsättning för att motverka desinformation och manipulation är att alla har full vetskap om huruvida den de kommunicerar med är en bot eller en människa.
Det handlar inte om att förbjuda AI, utan om att öka transparensen, på liknande sätt som vi kräver innehållsförteckning på produkter i affären.
English: Proof-of-Humanity
All media platforms must require zero-knowledge verification of humanity and clearly label which accounts are operated by bots versus humans.
Proposal
All media platforms must require **zero-knowledge verification of humanity** and clearly label which accounts are operated by bots and which by humans.
Motivation
**Purpose:** Restore trust in digital spaces and reduce the risk of influence operations and fraud.
A prerequisite for countering disinformation and manipulation is that everyone knows whether they are communicating with a bot or a human.
This is not about banning AI, but about increasing transparency, in a similar way to how we require ingredient lists on products in stores.
Källkritik i skolan
Kategori: Mänskliga rättigheter
Gör källvärdering till ett huvudämne som blandar hands-on-projekt med utbildning i AI.
Förslag
Gör källvärdering till ett **huvudämne** i skolan.
Kombinera ämnet med vetenskapsfilosofi, logik, kunskap om propagandametoder med AI och AIs förmågor.
Motivering
Att kunna bedöma olika informationskällors trovärdighet är en komplex färdighet som är viktigare än någonsin i en tid av informationsöverflöd. Utan att veta vad vi kan tro på finns risken att vi inte litar på något alls - och det är minst lika farligt som att tro på allt. Källvärdering ska därför vara ett kärnämne.
I en tid av deepfakes, syntetiskt innehåll och algoritmisk informationsfiltrering är förmågan att kritiskt granska källor en grundläggande demokratisk kompetens.
English: Source Evaluation in Education
Make source evaluation a core subject combining hands-on projects with AI education.
Proposal
Make source evaluation a **core subject** in schools.
Combine with scientific phillosophy, logic, education in AI capabilities and their use for propaganda and disinformation.
Rationale
Being able to assess the credibility of different sources of information is a crucial and complex skill that is more important than ever in times of information overload. If we don't know what to trust, there is the risk of not believing anything - and that is at least as dangerous as believing everything. Source evaluation should therefore be a core subject.
In an era of deepfakes, synthetic content, and algorithmic information filtering, the ability to critically evaluate sources is a fundamental democratic competence.
Incidentrapportering för AI-system
Kategori: Resiliens
Utvecklare av avancerade AI-system ska rapportera säkerhetsincidenter och tillbud till en nationell myndighet inom fastställd tidsram.
Förslag
Utvecklare av AI-system som överstiger en viss nivå av beräkningskapacitet måste rapportera betydande säkerhetsincidenter, tillbud eller händelser som inneburit förlorad kontroll till en utsedd nationell myndighet. Garantera skydd för konfidentiell information och, avgörande, immunitet mot åtal.
Upprätta ett standardiserat protokoll för eskalering och informationsdelning för att möjliggöra snabb tillsynsrespons och, där så är lämpligt, begränsad internationell notifiering.
Verka för implementering på EU-nivå.
Motivering
Säkerhetsbrister i AI identifieras ofta internt men hanteras informellt, inkonsekvent eller utan extern rapportering, särskilt under konkurrensmässig press.
Till skillnad från luftfart och kärnsäkerhet där rapportering är praxis, saknas idag ett obligatoriskt, standardiserat incidentrapporteringssystem för AI. Detta begränsar tillsynsmyndigheters förmåga att:
Dra lärdom av inträffade händelser
Identifiera systemrisker
Förebygga upprepning
Nuläge
I takt med att frontier-modeller integreras i kritisk infrastruktur och nationella säkerhetskontexter medför otillräckligt hanterade incidenter ökande samhälleliga och geopolitiska risker. EU AI Act Article 55 går en bit på vägen men gäller bara incidenter och inte near-misses. Lagverket lägger också mycket tillit på företagen, vilket kan vara riskabelt för ett samhälle utan insikt.
English: Incident Reporting for AI Systems
Developers of advanced AI systems must report security incidents and near-misses to a national authority within a set timeframe.
Proposal
Developers of AI systems exceeding a certain level of computational capability must report significant security incidents, near-misses, or events involving loss of control to a designated national authority. Guarantee protection for confidential information and, critically, immunity from prosecution.
Establish a standardised protocol for escalation and information sharing to enable rapid regulatory response and, where appropriate, limited international notification.
Advocate for implementation at the EU level.
Rationale
Security flaws in AI are often identified internally but handled informally, inconsistently, or without external reporting, especially under competitive pressure.
Unlike aviation or nuclear safety where this is common practice, there is currently no mandatory, standardised incident reporting system for AI. This limits regulators' ability to:
Learn from past events
Identify systemic risks
Prevent recurrence
Current situation
As frontier models are integrated into critical infrastructure and national security contexts, inadequately managed incidents pose increasing societal and geopolitical risks. EU AI Act Article 55 goes partway but only covers incidents, not near-misses. The legislation also places considerable trust in companies, which can be risky for a society without oversight.
Datatransparens
Kategori: Demokrati
Företag måste erbjuda högre grad av transparens om hur AI-system tränats och vilka algoritmer som driver sociala medier.
Förslag
Företag måste erbjuda en högre grad av transparens om hur AI-system har tränats, vilka algoritmer som driver sociala medier, och öka tillgängligheten för forskare.
Motivering
En allt större del av den allmänna debatten har flyttats till sociala medier. Samhället måste då kräva en grad av transparens för att garantera att:
Spelplanen inte är riggad
Tillräckligt görs för att motverka bedrägerier
Forskare har lättare att kartlägga konspirationer, desinformation och påverkansoperationerEnglish: Data Transparency
Companies must offer greater transparency about how AI systems are trained and which algorithms drive social media.
Proposal
Companies must offer a higher degree of transparency about how AI systems have been trained, which algorithms drive social media, and increase accessibility for researchers.
Rationale
An ever-growing share of public debate has moved to social media. Society must therefore demand a degree of transparency to guarantee that:
The playing field is not skewed
Sufficient measures are taken to counteract fraud
Researchers can more easily map conspiracies, disinformation, and influence operations
Dra nytta av AI:s demokratiseringspotential
Kategori: Demokrati
Reglering ska möjliggöra, inte stoppa, adoption av AI som stärker medborgarnas insyn och inflytande.
Förslag
Reglering ska möjliggöra, inte stoppa användning av AI som stärker demokratin.
Konkreta möjligheter
**AI som gör det enklare för individer att få insyn** i myndigheters arbete
**AI som gör det enklare för individer att lyfta sina åsikter** direkt till politiker
Princip
Teknologin erbjuder en unik möjlighet att minska avståndet mellan medborgare och beslutsfattare. Regelverken måste utformas så att denna potential realiseras snarare än blockeras.
English: Leverage AI's Democratisation Potential
Regulation should enable, not block, adoption of AI that strengthens citizens' oversight and influence.
Proposal
Regulation should enable, not block, the adoption of AI that strengthens democracy.
Concrete opportunities
**AI that makes it easier for individuals to gain insight** into government operations
**AI that makes it easier for individuals to voice their opinions** directly to politicians
Principle
Technology offers a unique opportunity to reduce the distance between citizens and decision-makers. Regulations must be designed so that this potential is realised rather than blocked.
Nyheter
Nyheter och uppdateringar om AI i politik och samhälle från Premiss.
USA:s utrikesdepartement byter till OpenAI när myndigheter fasar ut Anthropic
2026-03-21
Källa
USA:s utrikesdepartement övergår till OpenAI efter Trumps direktiv att fasa ut Anthropic från statliga kontrakt.
English: State Department switches to OpenAI as US agencies phase out Anthropic
The US State Department is switching to OpenAI following Trump's directive to phase out Anthropic from government contracts.
Hegseth vill att Pentagon ska dumpa Anthropics Claude
2026-03-21
Källa
Trump-administrationen beordrar utfasning av Anthropics Claude från militären, men användare säger att det inte är så enkelt.
English: Hegseth wants Pentagon to dump Anthropic Claude but military users push back
The Trump administration orders a phase-out of Anthropic's Claude from military use, but users say alternatives are not as capable.
AI har kommit in i klassrummet – men är det lösningen?
2026-03-21
Källa
AI-deepfake-avatarer och fjärrlärare testas i brittiska skolor som en lösning på rekryteringsproblem och lärararbetsbelastning.
English: AI has entered the classroom – but is it the solution for overworked teachers?
AI deepfake avatars and remote teachers are being tested in British schools as a solution to recruitment issues and teacher workload.
Elever har svårt att avgöra om AI-innehåll är sant
2026-03-21
Källa
En rapport visar att majoriteten av brittiska tonåringar använder AI i skolarbetet men många har svårt att skilja på sant och falskt AI-innehåll.
English: Pupils struggle to tell if AI content is true, report says
A report shows that most British teenagers use AI in schoolwork but many struggle to distinguish between true and false AI-generated content.
USA drar tillbaka planerad regel om export av AI-chip
2026-03-21
Källa
USA:s handelsdepartement drog tillbaka en planerad regel som skulle ha begränsat exporten av AI-chip till vissa länder.
English: US Commerce Department withdraws planned rule on AI chip exports
The US Commerce Department withdrew a planned rule that would have restricted the export of AI chips to certain countries.
Vad händer om OpenAI eller Anthropic misslyckas?
2026-03-21
Källa
Reuters Breakingviews analyserar vad som skulle hända om AI-boomen vänder till en bust och de stora AI-företagen skulle misslyckas.
English: What happens if OpenAI or Anthropic fail?
Reuters Breakingviews analyzes what would happen if the AI boom turns to bust and the major AI companies were to fail.
Kinas nya femårsplan satsar på AI i hela ekonomin
2026-03-21
Källa
Kinas nya femårsplan sätter AI i centrum för den ekonomiska utvecklingen med satsningar på grundforskning och STEM-talang.
English: China five-year plan calls for AI throughout its economy
China's new five-year plan puts AI at the center of economic development with investments in basic research and STEM talent.
Trump anklagar Iran för att använda AI för desinformation
2026-03-21
Källa
USA:s president Donald Trump anklagade Iran för att använda artificiell intelligens som ett "desinformationsvapen" för att underminera amerikanska intressen och sprida propaganda.
English: Trump accuses Iran of using AI to spread disinformation
U.S. President Donald Trump accused Iran of using artificial intelligence as a "disinformation weapon" to undermine American interests and spread propaganda online.
Kinesisk påverkansoperation riktar sig mot val i Japan
2026-03-21
Källa
En kinesisk påverkansoperation har riktat sig mot val i Japan och andra länder med hjälp av AI-genererat innehåll, enligt en amerikansk stiftelse.
English: Chinese influence operation targets Japan elections
A Chinese influence operation has targeted elections in Japan and other countries using AI-generated content, according to a US foundation report.
Australien kan gå efter appbutiker och sökmotorer i AI-ålderskontroll
2026-03-21
Källa
Australien säger att man kan rikta in sig på appbutiker och sökmotorer som en del av en bredare åtgärd för att skydda minderåriga i AI-åldern.
English: Australia may go after app stores and search engines in AI age crackdown
Australia says it may target app stores and search engines as part of a broader crackdown to protect minors in the age of AI.
Fed kämpar för att anpassa sig till AI:s löften och fallgropar för jobb
2026-03-21
Källa
Federal Reserve kämpar med att förstå hur AI kan leda till strukturellt högre arbetslöshet och påverka räntebeslut framöver.
English: Fed races to adapt to AI promises and pitfalls for jobs and inflation
The Federal Reserve is racing to understand how AI may lead to structurally higher unemployment and complicate future rate decisions.
AI kan skapa jobb istället för att förstöra dem, hävdar ECB
2026-03-21
Källa
Europeiska centralbanken hävdar i ett blogginlägg att AI hittills skapar fler jobb än det förstör, men varnar för att det kan förändras.
English: AI may be creating instead of destroying jobs for now, ECB blog argues
The European Central Bank argues in a blog post that AI is currently creating more jobs than it destroys, though warns this could change.
IMF ser stabil global tillväxt 2026 – AI-boom kompenserar handelsmotvind
2026-03-21
Källa
Internationella valutafonden prognostiserar 3,3% global BNP-tillväxt 2026, där AI-investeringar och skattelättnader driver USA:s tillväxt.
English: IMF sees steady global growth in 2026 as AI boom offsets trade headwinds
The International Monetary Fund forecasts 3.3% global GDP growth in 2026, with AI investment and tax breaks fueling US growth.
Europa tar första steget mot förbud av AI-genererade övergreppbilder
2026-03-21
Källa
EU tar det första steget mot att förbjuda AI-genererade bilder av sexuella övergrepp mot barn, i en bred åtgärd mot skadligt AI-innehåll.
English: Europe takes first step to banning AI-generated child abuse images
Europe took the first step towards outlawing AI practices which generate child sexual abuse imagery, in a broad crackdown on harmful AI content.
Encyclopedia Britannica stämmer OpenAI för AI-träning
2026-03-21
Källa
Encyclopedia Britannica och Merriam-Webster har stämt OpenAI för att ha använt deras referensmaterial utan tillstånd för att träna AI-modeller.
English: Encyclopedia Britannica sues OpenAI over AI training
Encyclopedia Britannica and Merriam-Webster have sued OpenAI for allegedly misusing their reference materials to train AI models without permission.
New York kräver redovisning av AI-genererade artister i reklam
2026-03-21
Källa
New Yorks lagstiftning kräver att AI-genererade artister i reklam måste redovisas, och stärker rättigheter efter döden.
English: New York requires disclosure on AI-generated performers in advertising
New York legislation requires disclosure on AI-generated performers in advertising and strengthens post-mortem publicity rights.
EU-lagstiftare stödjer förbud mot AI-appar som genererar explicita bilder
2026-03-21
Källa
Inflytelserika EU-lagstiftare stödjer ett förbud mot AI-applikationer som genererar explicita bilder, som en del av uppdateringar till EU:s AI-lag.
English: EU lawmakers support ban on AI apps generating explicit images
Key EU lawmakers backed a ban on AI apps that generate explicit images, as part of updates to Europe's AI Act.
Storbritannien undersöker märkning av AI-innehåll bland bredare upphovsrättsreformer
2026-03-21
Källa
Storbritannien planerar att överväga krav på märkning av AI-genererat innehåll som del av bredare upphovsrättsreformer.
English: UK to examine labelling AI content among wider copyright reforms
Britain plans to consider requiring labelling of AI-generated content as part of wider copyright reforms.
EU skjuter upp "högrisk" AI-regler till 2027 efter tech-motstånd
2026-03-21
Källa
EU-kommissionen föreslog att skjuta upp och lätta på flera teknikregler, inklusive att fördröja delar av AI-lagen efter påtryckningar från teknikjättar.
English: EU to delay high-risk AI rules until 2027 after Big Tech pushback
The European Commission proposed delaying and easing tech regulations, including postponing provisions of its AI Act after Big Tech pushback.
Pentagon antar Palantir AI som kärnmilitärt system
2026-03-21
Källa
Pentagon planerar att anta Palantirs AI-plattform som ett centralt system i den amerikanska militären, enligt ett internt memo.
English: Pentagon to adopt Palantir AI as core US military system
The Pentagon plans to adopt Palantir's AI platform as a core system in the US military, according to an internal memo.
Pentagon pressar AI-företag att expandera på hemliga nätverk
2026-03-21
Källa
Pentagon pressar OpenAI, Anthropic, Google och xAI att expandera sin AI-verksamhet på hemligstämplade militära nätverk.
English: Pentagon pushing AI companies to expand on classified networks
The Pentagon is pushing OpenAI, Anthropic, Google and xAI to expand their AI operations on classified military networks.
Pentagon stämplar Anthropic som leveranskedjerisk
2026-03-21
Källa
Pentagon har formellt stämplat AI-företaget Anthropic som en leveranskedjerisk, vilket omedelbart förbjuder statliga entreprenörer från att använda Anthropics teknik i amerikanskt militärarbete. Anthropic planerar att överklaga beslutet i domstol. Företag kan fortfarande använda Claude i projekt som inte är relaterade till Pentagon.
English: Pentagon designates Anthropic a supply chain risk
The Pentagon has formally designated AI company Anthropic as a supply chain risk, immediately barring government contractors from using Anthropic tech in US military work. Anthropic plans to challenge the designation in court. Companies can still use Claude in projects unrelated to the Pentagon.
Informationsmanipulation i den generativa artificiella intelligensens tidsålder
2026-03-21
Källa
Den globala digitala informationssfären har blivit en omtvistad geostrategisk och ideologisk slagmark. I denna online-"marknad för idéer" är demokratin alltmer under press, inte bara från traditionella auktoritära regeringar, utan även från företagsaktörer som försöker främja sina intressen. I demokratiska öppna informationsutrymmen skulle medborgarna helst vara fria att uttrycka sig och informera sig. Auktoritära aktörer, å andra sidan, fortsätter att finjustera tekniker för att manipulera den allmänna opinionen utomlands, för att undergräva demokratiska samhällen och processer, samtidigt som de stärker kontrollen över informationssfären hemma för att främja sin egen agenda.
English: Information manipulation in the age of generative artificial intelligence
The global digital information sphere has become a contested geostrategic and ideological battleground. In this online 'marketplace of ideas', democracy is increasingly under pressure not only from traditional authoritarian governments, but also corporate actors who seek to further their interests. In democratic open information spaces, citizens would ideally be free to express and inform themselves. Authoritarian actors, on the other hand, continue to fine-tune techniques to manipulate public opinion abroad, to undermine democratic societies and processes, all the while tightening control of the information sphere at home to further their own agenda.
Kina skärper AI-regler för att skydda barn
2026-03-21
Källa
Kina har föreslagit strikta nya regler för artificiell intelligens för att skydda barn och förhindra chatbottar från att erbjuda skadligt innehåll. De nya reglerna syftar till att hantera självmordsrisker och säkerställa att AI-företag tar ansvar för sina produkters påverkan på minderåriga.
English: China to crack down on AI firms to protect kids
China has proposed strict new rules for artificial intelligence to provide safeguards for children and prevent chatbots from offering harmful content. The new rules aim to tackle suicide risks and ensure AI companies take responsibility for their products' impact on minors.
Företag skär ner jobb när investeringar skiftar mot AI
2026-03-21
Källa
Investerare och företag skiftar alltmer resurser mot artificiell intelligens, vilket leder till omfattande nedskärningar inom traditionella roller. Stora företag som Amazon, Allianz och andra genomför omstruktureringar för att frigöra kapital till AI-satsningar.
English: Companies cutting jobs as investments shift toward AI
Investors and companies are increasingly shifting resources toward artificial intelligence, leading to widespread cuts in traditional roles. Major companies including Amazon, Allianz, and others are restructuring to free up capital for AI investments.
Lärare kan använda AI för att spara tid på rättning enligt nya riktlinjer
2026-03-21
Källa
Den brittiska regeringen har publicerat nya riktlinjer som tillåter lärare i England att använda artificiell intelligens för att effektivisera rättning. AI bör dock bara användas för bedömningar med låga insatser. Riktlinjerna syftar till att frigöra lärares tid för undervisning.
English: Teachers can use AI to save time on marking, new guidance says
The UK government has published new guidance allowing teachers in England to use artificial intelligence to streamline marking. However, AI should only be used for low-stakes assessments. The guidance aims to free up teachers' time for actual teaching.
Procedurbegränsning i praktiken
2026-03-21
Källa
EU:s AI-lag är en milstolpe. Men reglering på papper är inte motståndskraft. Procedurbegränsningar blir verkliga först när institutioner: - Samlar information - Lär sig av misslyckanden - Samordnar över sektorer - Agerar innan kriser eskalerar AI-styrning kommer i slutändan inte att bedömas utifrån elegansen i dess juridiska språk. Den kommer att bedömas utifrån huruvida institutioner kan upptäcka svaga signaler tidigt, reagera konsekvent och upprätthålla allmänhetens förtroende när systemen misslyckas.
English: Procedural Constraint in Practice
The EU AI Act is a milestone. But regulation on paper is not resilience. Procedural constraints become real only when institutions: - Aggregate information - Learn from failure - Coordinate across sectors - Act before crises escalate AI governance will not ultimately be judged by the elegance of its legal language. It will be judged by whether institutions can detect weak signals early, respond consistently, and maintain public trust when systems fail.