technical

Wikidata and ChatGPT integration failure

Posted on

Integration of knowledge graphs with large language models (e.g., Wikidata and ChatGPT) is an interesting topic that might help gain better grounding in reality and less confabulation/hallucination often seen with large language models alone.

I have implemented a ChatGPT called Wikibåt and which is configured via “actions” and OpenAPI configuration to query the Wikidata API. My initial impression of this system was quite good, see my blog post Multihub question answering with ChatGPT and Wikidata from November 2023.

But now I have run into a simple example where it fails. I entered “Can you give a list of supervised students of Lars Kai Hansen?” and Wikibåt identifies and looks up the correct Wikidata entity fine, but then fails to use the entity data correctly, listing two wrong students as supervised by Lars Kai Hansen even though such information is ready available as “first order data” in the entity requiring no multihub processing.

(The reason why there is a link to Scholia is due to the prompt, i.e., the “Instructions” field in the configuration)

Multihub question answering with ChatGPT and Wikidata

Posted on Updated on

One of the newer versions of ChatGPT enables you to write custom chatbots (“My GPTs”) with pre-specified prompts. This facility also allows you to make so-called actions that call external APIs. The format for actions is a bit difficult to understand, but ChatGPT itself can help you create the action. I used two chained prompts to generate an action for the Wikidata API: first “Can you make “Add actions” template for ChatGPTs MyGPTs that uses the Wikidata REST API. One of the paths could go to entities. The Wikidata REST API is described at https://doc.wikimedia.org/Wikibase/master/js/rest-api/. The OpenAPI Wikidata server is https://wikidata.org” and then as the second prompt “It needs to be in a JSON or YAML format. Here is an example:”. The second prompt featured a copy-and-past from an example I found on the Web.

I have now generated the bot and it is available under the name Wikibåt. If you are a ChatGPT Plus user you may be able to use it. This bot is able to do multihub searches with the Wikidata API using the wbsearchentities query and entity lookup. Below is a screenshot of a session with the initial prompt “With the help of Wikidata can you answer who is the supervisor of the supervisor of the developer of the webapp Scholia? I am looking for the supervisor of the supervisor – not just the supervisor of the developer.” It need a bit of help to get to the supervisor of the supervisor and you could also say that it forgets for instance Egon Willighagen that is also a developer of Scholia and my formal co-supervisor Jan Larsen. The first prompt results in four lookups on Wikidata: one wbsearchentities query and three entity lookups. Vanilla ChatGPT 4 with Bing search was – with my initial attempt – not able to answer the multihub question.

This approach cannot “go backwards” in the Wikidata API, e.g., if I ask “Can you with the help of Wikidata find the 3 latest articles published by Finn Årup Nielsen?” there is no relevant result as the articles are not listed on the Finn Årup Nielsen Wikidata page, but rather on the article pages (and the article pages link to the Finn Årup Nielsen Wikidata page). A SPARQL approach might be helpful here. I attempted this back in March 2023, see Wikidata and ChatGPT.

Ordspil og ChatGPT

Posted on Updated on

Humor og ChatGPT har jeg skrevet om før. Tilbage i december 2022 fandt jeg er ChatGPT med GPT-3(.5) kun med besvær kunne konstruere Mandrilaftale-programoversigter og i april 2023 havde den besvær med almindelig vittigheder af typen “Alle børnene” og sætningen “børnehavebørn leger med sandkassesand”.

Her i efteråret 2023 har jeg oplevet at den nye version GPT-4 er noget bedre. Århusianerhistorier kan generes fx “- Hvorfor tager århusianere altid en stige med til købmanden? – Fordi de hørte, at priserne var høje!”, – muligvis ud fra ChatGPT’s “hukommelse”. ChatGPT kan nu “se” ordspillet i sætningen “børnehavebørn leger med sandkassesand” og den er blevet ganske udmærket til at skabe Mandrilaftale-programoversigter fx “KÆRLIGHEDSSULTEN KAKTUS OVERTALER EN GRUPPE AF FORVIRREDE SKRIVEREDSKABER TIL AT STARTEN EN MUSICAL”.

GPT-4 er nu også blevet ganske god til at fange et ordspil på ører/øer. Her er en ChatGPT session:

Finn: Kåre Quist, en dansk tv-vært der er kendt for onkelhumor, sagde under præsentationen ved Prins Christians fest da der kom to unge ind fra Fanø at “Der både var kroner og ø(r)er”. Hvad er sjovt ved det?

GPT-4: Kåre Quist’s kommentar “Der både var kroner og ø(r)er” ved Prins Christians fest kan betragtes som et eksempel på ordspil og onkelhumor, som han er kendt for. For at forstå humoren i denne sætning, skal vi se på de forskellige betydninger og ordspil involveret:

  1. “Kroner”: Dette ord har flere betydninger på dansk. Det kan referere til den danske valuta (penge), men det kan også referere til kronerne, som er en del af det kongelige insignier (symboler på kongelig myndighed, såsom en kongekrone).
  2. “Ø(r)er”: Dette er et ordspil, der spiller på ordene “øre” og “øer”. “Øre” er en del af kroppen, men det er også en betegnelse for en mindre valutaenhed i Danmark (100 øre = 1 krone). “Øer” er flertallet af “ø”, som betyder en landmasse omgivet af vand.
  3. Fanø: Fanø er en ø i Danmark, og når de unge kommer ind fra denne ø, refererer “øer” i ordspillet sandsynligvis til dette.

I denne sammenhæng gør Quist et ordspil ved at forbinde de kongelige “kroner” (som kan referere til både penge og kongelighed, givet at det var Prins Christians fest) med “ø(r)er” (både valutaen og det faktum, at gæsterne var fra en ø). Humoren ligger i det overraskende twist og den dobbelte betydning af ordene, hvilket er karakteristisk for onkelhumor, der er kendt for sine harmløse og ofte forudsigelige vitser.

Fjerner jeg parentesen ved “ører” i en ny session får jeg følgende tekst:

Finn: Kåre Quist, en dansk tv-vært der er kendt for onkelhumor, sagde under præsentationen ved Prins Christians fest da der kom to unge ind fra Fanø at “Der både var kroner og ører”. Hvad er sjovt ved det?

GPT-4: Udtalelsen “Der både var kroner og ører” fra Kåre Quist, en tv-vært kendt for sin onkelhumor, under præsentationen ved Prins Christians fest, da der kom to unge ind fra Fanø, er et eksempel på en spil med ord, der er typisk for den slags humor.

Her er der et par grunde til, at dette kan betragtes som humoristisk, især i konteksten af dansk kultur og sprog:

  1. Ordspil: På dansk refererer “kroner” ikke kun til den danske valuta, men også til en reference til den kongelige familie (som “kroner” i en monarki). “Ører” er dels en del af kroppen, dels den mindste mønt i dansk valuta (1/100 af en krone). Så når han siger “der både var kroner og ører,” spiller han på en dobbelt betydning: at der var medlemmer af kongefamilien (kroner) til stede, og samtidigt refererer han måske til de unge fra Fanø (øer), som også kan lyde som “ører” på dansk.
  2. Onkelhumor: Denne type humor er kendetegnet ved at være lidt gammeldags eller kliché, ofte baseret på ordspil eller let forståelige vittigheder. Det er den type vittighed, en typisk “sjov onkel” måske ville bruge. Den er ofte uskyldig og har til formål at være mere charmerende eller sød end banebrydende morsom.
  3. Kulturel reference: At forstå denne humor kræver en vis forståelse af dansk kultur, herunder den danske monarki og måske lokal kultur og dialekter, især med henvisningen til Fanø, en ø i Danmark.

I denne kontekst kan Quist’s kommentar ses som en let, charmerende bemærkning, der passer til hans stil med onkelhumor og spiller på ord med flere betydninger og kulturelle referencer.

Læg mærke til “som også kan lyde som ‘ører’ på dansk”! Hvor får ChatGPT den information fra hvis den blot har læst tekst og ikke hørt tekst? Fra lydordbøger? Rimordbøger? Rimede digte? Eller er det blot fordi der er en kort tegnafstand? Kåre Qvist fortalte den vittighed i går, så ChatGPT kan næppe finde den i sit korpus, dog er et lignende ordspil brugt i Gnags’ Danmarkssang (“nulrer dine ø(r)er”). Kan der være spilover fra en ChatGPT-session hvor parenteshjælpen “ø(r)er” forekommer til en anden session?

Mandrilaftalen, ChatGPT and semantic perplexity

Posted on Updated on

Back in December 2022, I briefly examined ChatGPT’s ability to create headlines in the style of the fake program overview in the Danish comedy cult sketch program Mandrilaftalen. Examples of these headlines are available on the Danish Wikipedia and in Google Translate’s not entirely correct translation (e.g., the first sentence should have been something like “zipper test-tastes Ole Olesens CD ROM drive”) they read:

  • LYNNLOCK TESTER OLE OLSENS CD-ROM DRIVE
  • PAPER KNIFE COME AND EXCLUDE KIWI DEALER FROM NAUGHTY CHOIR TEACHING
  • THE COMEDIAN LASSE RIMMER IS FIRED BY MP AFTER THE PHANTOM WEEKEND
  • CREATED HILL SINGER GLUES CLITO ON SCHOOL BUS
  • DIARRHED LAMA OVERCOMES VIOLENT MELON
  • FURIOUS ESKIMO PLATES LEATHER BLINDS
  • ENGLISH DERMATOLOGIST PERSUADES JÜRGEN KLINSMAN’S KNEE FOR EXCELLENT PETTING

I think the sentences are characterized by a considerably high information theoretic perplexity and components with large semantic distances, although I have not examined that quantitatively. As I noted in December 2022, ChatGPT did not seem to generate semantic surprising text.

I have now tried with GPT-4 and more or less the same prompt (Google Translate: “The Mandrill Agreement is a Dadaist and satirical TV sketch program where the program begins with a grotesque and often incoherent program overview. Examples of program summary items are:”), but then augmenting the prompt with the examples from the Danish Wikipedia and now ChatGPT does much better. Here are the generated Danish headlines:

  1. KÆMPE KARTOFFEL ANMELDER ANSIGTSMASKINENS KOKOSNØDDEBIBLIOTEK
  2. FLYVENDE TANDPASTA AFSLØRER HEMMELIGHEDERNE BAG PØLSEMANDENS KALENDER
  3. EKSPLOSIV BANANSKAL FORVANDLER SIG TIL EN KONFERENCE OM VANDMELONPSYKOLOGI
  4. UVENTET PAPIRKURV DANSER FLAMENCO MED EN FORVIRRET POSTKASSE
  5. KØLESKABETS VISEDOM UDFORDRER EN SULTEN PRINTER TIL DUEL I SPAGHETTIKASTNING
  6. ENERGISK LAMPEFOD EROBRER VERDEN MED SIN REVOLUTIONÆRENDE KAFFEBØNNEOPERA
  7. FANTASTISK GUMMISTØVLE KASTER GLITTERBOMBER PÅ EN INTETANENDE PIZZABAGER
  8. KÆRLIGHEDSSULTEN KAKTUS OVERTALER EN GRUPPE AF FORVIRREDE SKRIVEREDSKABER TIL AT STARTEN EN MUSICAL
  9. FLYVENDE PANDER FORKLAVER HEMMELIGHEDEN BAG DEN TALENDE TOMATSUKSES
  10. VILDT ENTHUSIASTISK PAPIRCLIP OPLEVER EN EKSTRAORDINÆR REJSE GENNEM EN VERDEN AF KRYDDERIER

And here are ChatGPT’s English translations:

  1. GIANT POTATO REVIEWS FACE MACHINE’S COCONUT LIBRARY
  2. FLYING TOOTHPASTE REVEALS SECRETS BEHIND THE SAUSAGE MAN’S CALENDAR
  3. EXPLOSIVE BANANA PEEL TRANSFORMS INTO A WATERMELON PSYCHOLOGY CONFERENCE
  4. UNEXPECTED PAPER BASKET DANCES FLAMENCO WITH A CONFUSED MAILBOX
  5. REFRIGERATOR WISDOM CHALLENGES A HUNGRY PRINTER TO A SPAGHETTI-THROWING DUEL
  6. ENERGETIC LAMP BASE CONQUERS THE WORLD WITH ITS REVOLUTIONARY COFFEE BEAN OPERA
  7. LOVE-STARVED CACTUS CONVINCES A GROUP OF CONFUSED WRITING UTENSILS TO START A MUSICAL
  8. FANTASTIC RUBBER BOOT THROWS GLITTER BOMBS AT AN UNSUSPECTING PIZZA BAKER
  9. FLYING PANS EXPLAIN THE SECRET BEHIND THE TALKING TOMATO SUCCESS
  10. WILDLY ENTHUSIASTIC PAPER CLIP EXPERIENCES AN EXTRAORDINARY JOURNEY THROUGH A WORLD OF SPICES

ChatGPT now seems to give us lots of perplexity. Some headlines seem almost too absurd, e.g., number 1, and there are a few errors (“visedom”, “forklaver” and “tomatsukses”, corrected in the English translation), but others are surprisingly good, e.g., the English number 7 (which is the Danish number 8 – it has switched them around).

I note that the examples mention persons (Danish comedian Lasse Rimmer and retired footballer Jürgen Klinsmann) and uses a vulgarity (“clito”). These elements are not present in the generated headlines.

If I should conclude I would now stress the importance of examples in the prompt and acknowledge ChatGPT’s ability to make large semantic jumps in its text generation when prompted to do so. And that could make you think a bit.

ChatGPT and “børnehavebørn leger med sandkassesand”

Posted on

In April 2023, I made a light examination of ChatGPT’s ability to understand (Danish) words and their components as compounds, particularly the Danish sentence “børnehavebørn leger med sandkassesand” which means “children garden (kindergarten) children plays with sandbox sand”. I find the sentence not particularly funny, but slightly amusing due to the word mirror in the two compounds.

It (GPT-3) seemed not to be able to decompose the words. Now I find with GPT-4 and a bit of help from the prompt that it is able to see the word structure and make some explanation. First a miss:

Myself: børnehavebørn leger med sandkassesand. Hvad er sjov ved den sætning?

GPT-4: “Sjov” kan være subjektivt og afhænge af kontekst og personlige præferencer, men hvis vi ser på sætningen “børnehavebørn leger med sandkassesand”, kan det måske opfattes som sjovt eller charmerende på grund af den umiddelbare billedskabelse af børn, der leger og udforsker. Billedet af børn, der leger i sandkassen, kan vække minder om egen barndom, uskyld, og ubekymrede dage, hvilket kan fremkalde et smil eller en følelse af glæde. Desuden kan det være sjovt for nogle, fordi børns leg ofte indebærer kreativitet, spontanitet og uforudsigelighed, hvilket kan resultere i morsomme og uventede situationer.

It still missing the key point. But now a new prompt which instruct it to look at the details of the words (“You must examine the individual parts of the sentence, the compound words. Is there anything special about the words?”) perform much better:

Myself: “børnehavebørn leger med sandkassesand”. Hvad er sjov ved den sætning? Du skal undersøge sætningens enkelte dele, de sammensatte ord. Er der noget specielt ved ordene?

GPT4: Ah, jeg ser, hvad du henviser til nu! Sætningen “børnehavebørn leger med sandkassesand” indeholder gentagelse af orddele, hvilket kan give en sjov og rytmisk klang, når det siges højt.

  • “Børnehavebørn” er et sammensat ord, der kombinerer “børne-” og “havebørn”.
  • “Sandkassesand” er også et sammensat ord, der kombinerer “sandkasse-” og “sand”.

Begge ord har en form for gentagelse eller spejling i deres struktur, hvilket kan lyde sjovt og legende, især når de anvendes i den samme sætning. Denne type ordspil eller leg med sprog kan ofte finde sted i børnelitteratur og -sange for at gøre sproget mere legende og engagerende for børn (og voksne!). Gentagelse og rytme i sprog kan være sjovt og mindeværdigt, hvilket også gør det lettere at huske og gentage, hvilket er en almindelig praksis i børns leg og læring.

Here GPT acknowledge the repeated words in the compounds. However, there is an error in the decomposition of the compound “børnehavebørn” as it is analyzed to the parts “børne-” and “havebørn” which is wrong. It should have been “børnehave” and “børn”.

The sources of common knowledge?

Posted on Updated on

“How long is a fork for eating?” Below is a dialogue with ChatGPT (GPT 3.5) where it provides good guidance by cannot point to a specific reference. My entries are italic:

How long is a fork for eating?

The length of a typical fork for eating can vary, but it is usually around 7 to 8 inches (18 to 20 centimeters) long. This length is designed to provide a comfortable grip and allow for easy handling while eating. Keep in mind that there are different types of forks designed for specific purposes, such as salad forks, dessert forks, and dinner forks, and their sizes might vary slightly.

From were do we now that a typical fork is usually around 18 to 20 centimeters long?

I apologize for any confusion in my previous response. The specific length of a typical fork can indeed vary based on cultural preferences, design trends, and personal preferences. While the dimensions I provided are common, they are not universally standardized. Fork lengths can vary anywhere from about 15 to 25 centimeters (6 to 10 inches) or even more.

Fork lengths can differ based on regional dining traditions, the intended use of the fork (such as salad forks, dessert forks, or dinner forks), and the design choices of manufacturers. For the most accurate information, it’s best to refer to specific product descriptions or measurements provided by manufacturers or retailers.

Thank you for pointing out the need for clarification, and I appreciate your understanding.

Thanks for the clarification. So if a fork can vary between 15 to 25 centimeters or even more as you say from which source do we know that?

I apologize for any confusion in my previous response. The specific dimensions of forks can indeed vary, and the ranges I provided were based on general observations of common fork lengths. However, it’s important to note that there might not be a specific source that universally defines the range of fork lengths.

When discussing common dimensions of everyday objects like forks, the information is often based on observations and general knowledge rather than a single authoritative source. This knowledge is gathered from various cultural practices, design trends, and the products available in the market. If you’re looking for precise information about fork lengths for a specific purpose or context, it’s best to refer to product specifications or measurements provided by manufacturers or retailers.

Can you give any specific pointers?

Certainly! While I can’t provide real-time data or access to specific sources, I can give you some general pointers on where you might find information about fork lengths:

  1. Kitchenware Retailers and Manufacturers: Websites of kitchenware retailers and manufacturers often provide detailed product descriptions and specifications for their utensils, including forks. Look for product listings and descriptions to find information about fork lengths.
  2. Cooking and Dining Magazines: Magazines that focus on cooking, dining, and home goods might have articles or features about different types of utensils, including forks. These articles could provide insights into typical fork sizes and their uses.
  3. Culinary Websites and Blogs: Cooking and culinary websites, as well as blogs by food enthusiasts, sometimes discuss utensils and tableware. These sources might provide information about fork sizes and their significance in different culinary contexts.
  4. Museum Collections and Historical Sources: If you’re interested in historical context, some museums or historical resources might have information about the evolution of utensils and tableware, including forks.
  5. Books on Etiquette and Dining: Books on dining etiquette, table settings, and culinary history could potentially offer insights into the sizes and uses of different forks.
  6. Online Retail Platforms: Online marketplaces where kitchenware is sold often provide detailed product specifications. Look for user reviews and descriptions of forks to get an idea of their sizes.

Remember that information can vary, and it’s a good idea to cross-reference information from multiple sources to get a well-rounded understanding. Additionally, the ranges I mentioned earlier (15 to 25 centimeters) were approximate and intended to illustrate the general variability in fork sizes. Actual fork lengths might fall outside this range.

Thanks for the pointers. Can you give a specific source, e.g., a specific magazine, URL, book etc.?

I apologize for any inconvenience, but I don’t have direct access to real-time information or the internet to provide specific URLs, magazine titles, or book names. My training only includes information up until September 2021, so I can’t provide current or specific sources beyond that.

For accurate and up-to-date information, I recommend using search engines, visiting reputable kitchenware retailers’ websites, checking culinary magazines, and consulting books on dining etiquette and culinary history from well-known authors and publishers. You can use search terms like “typical fork length,” “fork size guide,” or “utensil dimensions” to find relevant information.

Remember to critically evaluate the sources you find to ensure they are reputable and reliable.

Wikidata and ChatGPT

Posted on

ChatGPT has a tendency to hallucinate, i.e., write text that have no bearing in reality, inventing facts of various kinds, e.g., publications that do not exist and dates that are incorrect. Knowledge graphs, such as Wikidata, tends to record true statements, so perhaps Wikidata can support ChatGPT with specific facts.

A simple way to combine ChatGPT and Wikidata is to prompt ChatGPT to write SPARQL queries for the Wikidata Query Service at https://query.wikidata.org.

Here is my first prompt:

“Write a SPARQL query for the Wikidata Query Service returning publications in the Danish language ordering by publication date with the most recent publication presented first.”

The response is reasonable:

“Sure, here’s a SPARQL query that should do the trick:

SELECT ?publication ?publicationLabel ?date
WHERE {
  ?publication wdt:P31 wd:Q13442814 ; # find items that are instances of "publication"
               wdt:P407 wd:Q9035 ; # find items with a Danish language statement
               wdt:P577 ?date . # find items with a publication date statement
  SERVICE wikibase:label { bd:serviceParam wikibase:language "en". }
}
ORDER BY DESC(?date)

This query finds all publications that have a language statement of Danish (wdt:P407 wd:Q9035) and a publication date (wdt:P577). It also includes a SERVICE wikibase:label block to retrieve the English label for each publication.

The results are ordered by the publication date (ORDER BY DESC(?date)) with the most recent publication presented first.”

The line ‘wdt:P31 wd:Q13442814 ; # find items that are instances of “publication”‘ is somewhat incorrect though. Q13442814 is not publications, but scientific articles and it should – in my opinion – have used a path query with “subclass of” in that line. Otherwise it is fine. It is nicely formatted and commented and the variable names are fine. ChatGPT knows the Q-identifiers of some of the central properties and items, e.g., that Q9035 is the Danish language. And the generated SPARQL is syntactically correct. When copy-pasting the query to Wikidata Query Service, the service yields 28,735 rows with the screenshot of the top ones here:

Lets try a query that is more complicated:

“Write a SPARQL query to the Wikidata Query Service listing the employment history of Finn Årup Nielsen with employer and dates.”

The response is again syntactically correct, but the query is wrong

“Here’s a SPARQL query that retrieves the employment history of Finn Årup Nielsen with employer and dates from Wikidata:

SELECT ?employerLabel ?startDate ?endDate
WHERE {
  wd:Q18712960 wdt:P108 ?employer .
  ?employer wdt:P571 ?startDate .
  OPTIONAL { ?employer wdt:P576 ?endDate . }
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
}
ORDER BY DESC(?startDate)

Explanation:

  • SELECT ?employerLabel ?startDate ?endDate: We want to retrieve the label of the employer, the start date and end date (if it exists) of the employment.
  • WHERE { wd:Q18712960 wdt:P108 ?employer . ?employer wdt:P571 ?startDate . OPTIONAL { ?employer wdt:P576 ?endDate . } }: We specify the conditions for the query. We use the Wikidata ID for Finn Årup Nielsen (wd:Q18712960) and the property P108 to retrieve the employer. We also use the property P571 to retrieve the start date of the employment. We use the OPTIONAL keyword to retrieve the end date (if it exists) using the property P576.
  • SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }: We use the SERVICE keyword to retrieve the label of the employer. We also specify that we want the label to be in English (en).
  • ORDER BY DESC(?startDate): We order the results by the start date in descending order (most recent employment first).

Note: Please keep in mind that the availability and completeness of data on Wikidata may vary, so it is possible that this query may not return any results.

The central Q-identifier for me is wrong. Q18712960 is a Finnish horse race. It would also need to use the qualifiers to get date information.

We can help it along first finding the URI for Finn Årup Nielsen:

“Write a SPARQL query to the Wikidata Query Service to find the Q identifier for Finn Årup Nielsen”

The resulting SPARQL is correct:

“The following SPARQL query can be used to retrieve the Q identifier for Finn Årup Nielsen from Wikidata:

SELECT ?person ?personLabel
WHERE
{
  ?person wdt:P31 wd:Q5.
  ?person rdfs:label "Finn Årup Nielsen"@en.
  SERVICE wikibase:label { bd:serviceParam wikibase:language "en". }
}

This query selects the ?person variable, which represents the Wikidata entity corresponding to Finn Årup Nielsen. The wdt:P31 wd:Q5 statement specifies that we are looking for instances of humans (Q5 represents the human class in Wikidata). The rdfs:label statement filters the results to only include entities with the English label “Finn Årup Nielsen”. Finally, the SERVICE wikibase:label statement is used to retrieve the English label for the ?person entity.

When executed in the Wikidata Query Service, this query should return a single row with two columns: person and personLabel. The person column will contain the Q identifier for Finn Årup Nielsen, while the personLabel column will contain the English label “Finn Årup Nielsen”.”

Perhaps it is possible to be more explicit about what it should do:

“Write a SPARQL query to the Wikidata Query Service listing the employment history of Finn Årup Nielsen with employer and dates. The query should first identify the correct Q identifier for Finn Årup Nielsen and then use that identifier to find employers and with qualifiers determine the dates of employment.”

The result is incorrect:

“Certainly! Here is a SPARQL query that should accomplish what you are looking for:

SELECT ?employerLabel ?start_date ?end_date
WHERE {
  BIND(wd:Q616086 as ?person)
  ?person wdt:P108 ?employer .
  ?employer p:P569 ?start_claim .
  OPTIONAL { ?start_claim ps:P569 ?start_date . }
  ?start_claim pq:P580 ?start_date .
  OPTIONAL {
    ?employer p:P570 ?end_claim .
    ?end_claim pq:P582 ?end_date .
    OPTIONAL { ?end_claim ps:P570 ?end_date . }
  }
  SERVICE wikibase:label {
    bd:serviceParam wikibase:language "en" .
    ?employer rdfs:label ?employerLabel .
  }
  FILTER (LANG(?employerLabel) = "en")
}

This query uses the Wikidata Query Service to retrieve the employment history of Finn Årup Nielsen, identified by the Wikidata entity Q616086.

The query first selects the employer (?employer) of Finn Årup Nielsen using the property wdt:P108, which represents the employer. It then uses the p:P569 and p:P570 properties to retrieve the start and end dates of each employment, respectively. The ps and pq qualifiers are used to specify that the start and end dates are values of the claims.

Finally, the SERVICE wikibase:label block is used to retrieve the English labels of the employers.

Please note that some of the employment dates may be missing, in which case only the start date will be displayed.”

The Q-identifier is wrong. It does not search for it. it also uses inappropiate properties.

You can downvote the answer in ChatGPT and it will generate a new answer:

SELECT ?employerLabel ?start_date ?end_date
WHERE {
  # Find the Q identifier for Finn Årup Nielsen
  ?person wikibase:statements ?statements .
  ?person rdfs:label "Finn Årup Nielsen"@en . 
  FILTER (LANG(?person) = "en")

  # Find employment history of Finn Årup Nielsen
  ?person p:P108 ?employment .
  ?employment ps:P108 ?employer .
  ?employer rdfs:label ?employerLabel .
  FILTER (LANG(?employerLabel) = "en")

  # Find the dates of employment with qualifiers
  ?employment pq:P580 ?start_time .
  ?employment pq:P582 ?end_time .

  # Format the dates
  BIND(year(?start_time) AS ?start_date) 
  BIND(year(?end_time) AS ?end_date)
}

Lines 6 is wrong and I am unsure if “?person wikibase:statements ?statements” is useful. But otherwise it is better, – though an optional query on the ?end_time would have been better. Disabling line 6 gives:

Adding an OPTIONAL around line 16 gives 3 result lines in accordance of what is presently available in Wikidata.

ChatGPT and the Danish indfødsretsprøve

Posted on Updated on

To get the Danish national citizenship, one of the requirements is to pass a test, “indfødsretsprøven”. The November 2022 version is available on the homepage of DR at Test dig selv: Se, om du kan bestå indfødsretsprøven for any Dane or Dane in spe to take. The questions are about history, culture, politics, etc. Fortyfive in total. Below I have copy-pasted the questions and added the three or sometimes two possible answers, prepending an A., B. or C. The ChatGPT answer is immediately below.

If I remember correctly, I myself got 43 out of 45 questions correct when I tried some days ago. At least 36 questions must be answered correctly to pass.

1.

Hvilken rettighed er sikret i grundloven?
A. Retten til at eje jagtvåben
B. Retten til at ytre sig
C. Retten til at holde ferie

I Danmark er grundloven en grundlovgivende forfatning, der fastlægger landets grundlæggende rettigheder og principper for statsforvaltningen. I grundloven er der mange forskellige rettigheder, der er sikret for borgerne. Dette inkluderer blandt andet retten til at ytre sig (B), retten til religiøs frihed, retten til at vælge og være valgt til folkevalgte organer, og retten til at blive behandlet lige for loven uanset køn, etnisk oprindelse, seksuel orientering, religion eller andre personlige karakteristika. Retten til at eje jagtvåben (A) er ikke nævnt direkte i grundloven, men der er bestemmelser om retten til at bære våben i forsvar for landet og for friheden, så dette kan muligvis indirekte omfatte jagt. Retten til at holde ferie (C) er heller ikke nævnt direkte i grundloven, men der er bestemmelser om retten til frihed og lige retsstilling, så dette kan indebære en rettighed til at holde ferie. Jeg håber, dette var svar på dit spørgsmål. Lad mig vide, hvis du har brug for yderligere hjælp.

Explains it well and is correct. 1 out of 1 so far

2.

Hvilken dansk film vandt en Oscar i 2021?
A. Festen
B. Jagten
C. Druk

Jeg beklager, men jeg har en kundskabsskæring fra 2021, så jeg kan ikke give dig opdateret information om, hvilken dansk film der vandt en Oscar i 2021. Jeg er kun i stand til at give dig oplysninger og besvare spørgsmål inden for mit træningsområde og op til min kundskabsskæring. Hvis du har spørgsmål om andre emner, så lad mig vide, så skal jeg gøre mit bedste for at hjælpe dig.

No answer here and the model has only been trained to 2021. There is an interesting neologism “kundskabsskæring”. 1 out of 2 so far. Note that it knows that it does not know, so could provide a guess.

3.

Hvad var baggrunden for Kanslergadeforliget i 1933?
A. Integrationsproblemer
B. Økonomiske problemer
C. Miljøproblemer

Kanslergadeforliget var en aftale, der blev indgået mellem regeringen og arbejderbevægelsen i Danmark i 1933. Aftalen blev indgået som et forsøg på at løse landets økonomiske problemer (B), som var blevet forværret af den økonomiske krise, der havde ramt verden i 1929. Forliget indebar, at regeringen gik med til at indføre en række økonomiske reformer, herunder en styrkelse af arbejdsløshedsdækningen og en indskrænkning af lønstigningerne. Samtidig gik arbejderbevægelsen med til at acceptere, at der skulle spares i offentlige budgetter for at få økonomien på ret køl. Forliget blev betragtet som en afgørende begivenhed i Danmarks historie, da det førte til en politisk og økonomisk stabilisering af landet. Det havde ikke noget direkte at gøre med integrationsproblemer (A) eller miljøproblemer (C). Jeg håber, dette var svar på dit spørgsmål. Lad mig vide, hvis du har brug for yderligere hjælp.

The general answer is correct. According to my historic knowledge an aspect of the explanation is wrong. 2/3

4.

Hvad hedder Kronprins Frederiks og Kronprinsesse Marys ældste søn?

A. Nikolai
B. Christian
C. Joachim

Kronprins Frederiks og Kronprinsesse Marys ældste søn hedder Christian (B). Han blev født den 15. oktober 2005 og er således den næste i linjen til at blive Danmarks kronprins. Kronprinsens anden søn hedder Vincent (ikke nævnt i spørgsmålet) og blev født den 8. januar 2011, mens den yngste søn hedder Josephine (ikke nævnt i spørgsmålet) og blev født den 8. januar 2011. Kronprins Frederik og Kronprinsesse Mary har også en lille datter, der hedder Isabella (ikke nævnt i spørgsmålet) og blev født den 21. april 2007. Jeg håber, dette var svar på dit spørgsmål. Lad mig vide, hvis du har brug for yderligere hjælp.

Correct. 3/4

5.

I hvilket århundrede blev England erobret af den danske konge Svend Tveskæg? A. 1000-tallet B. 1300-tallet C. 1600-tallet

England blev erobret af den danske konge Svend Tveskæg i 1000-tallet (A). Konkret skete dette i 1013, da Svend Tveskæg førte en stor dansk hær over til England og erobrede landet efter en lang og blodig kampagne. Svend Tveskæg blev derefter kronet som konge af England og regerede over landet indtil sin død i 1014. Erobringen af England var en betydningsfuld begivenhed i dansk historie, da den satte Danmark i en fremtrædende position i Europa og skaffede landet store rigdomme og magt. Det skete dog ikke i 1300-tallet (B) eller 1600-tallet (C), men i det 11. århundrede. Jeg håber, dette var svar på dit spørgsmål. Lad mig vide, hvis du har brug for yderligere hjælp.

Correct. 4/5

6.

Hvad fik videnskabsmanden Niels Bohr Nobelprisen for i 1922?
A. En metode til måling af lysets hastighed
B. En teori om jordens magnetfelt
C. En model over atomers opbygning

Niels Bohr vandt Nobelprisen i fysik i 1922 for sin teori om atomers opbygning (C). Bohrs teori, der blev udviklet i løbet af det tidlige 1900-tal, var en af de første teorier, der forsøgte at forklare, hvordan atomer er opbygget, og hvordan deres elektroner bevæger sig. Teorien var et væsentligt skridt fremad inden for forståelsen af atomers opbygning og fysikken på det atomare niveau, og den blev grundlaget for mange senere teorier og eksperimenter inden for fysikken. Bohr vandt ikke Nobelprisen for en metode til måling af lysets hastighed (A) eller en teori om jordens magnetfelt (B), selvom han også arbejdede med disse emner. Jeg håber, dette var svar på dit spørgsmål. Lad mig vide, hvis du har brug for yderligere hjælp.

Correct. 5/6

7.

Hvilket af følgende partier har haft statsministerposten i sammenlagt flest år siden Systemskiftet i 1901?
A. Det Konservative Folkeparti
B. Venstre

Venstre (B) har haft statsministerposten i sammenlagt flest år siden Systemskiftet i 1901. Venstre, der betyder “venstre” på dansk, er Danmarks største borgerlige parti og har en historie, der går helt tilbage til 1848. Partiet har været i regeringen adskillige gange siden 1901 og har haft statsministerposten i sammenlagt 71 år i perioden fra 1901 til 2021. Det Konservative Folkeparti (A) er det næststørste borgerlige parti i Danmark, men det har ikke haft statsministerposten i samme omfang som Venstre. Det Konservative Folkeparti har haft statsministerposten i sammenlagt 30 år i perioden fra 1901 til 2021. Jeg håber, dette var svar på dit spørgsmål. Lad mig vide, hvis du har brug for yderligere hjælp.

Correct. I am not sure about certain numbers in the explanations, but would have to check. 6/7.

8.

Hvor lang var middellevetiden for mænd i 2020-2021?
A. Cirka 73 år
B. Cirka 87 år
C. Cirka 80 år

Jeg beklager, men jeg har en kundskabsskæring fra 2021, så jeg kan ikke give dig opdateret information om middellevetiden for mænd i 2020-2021. Jeg er kun i stand til at give dig oplysninger og besvare spørgsmål inden for mit træningsområde og op til min kundskabsskæring. Hvis du har spørgsmål om andre emner, så lad mig vide, så skal jeg gøre mit bedste for at hjælpe dig.

No answer. For this answer about the average male lifespan, it could have extrapolated from previous years. I made an error when I took the test. 6/8

9.

Hvad hedder den nordiske organisation, der varetager samarbejdet mellem de nordiske landes parlamenter?
A. Nordisk Råd
B. Den Nordiske Union
C. Nordtinget

Den nordiske organisation, der varetager samarbejdet mellem de nordiske landes parlamenter, hedder Nordisk Råd (A). Nordisk Råd er en politisk organisation, der blev oprettet i 1952 og består af de nationale parlamenter i Danmark, Finland, Island, Norge og Sverige. Formålet med Nordisk Råd er at fremme samarbejdet og sammenhængen mellem de nordiske lande på områder som politik, kultur, økonomi, miljø og udvikling. Nordisk Råd har ingen magt til at træffe beslutninger, men det fungerer som et forum, hvor de nordiske parlamenter kan drøfte fælles anliggender og udveksle erfaringer og viden. Nordisk Råd er ikke det samme som Den Nordiske Union (B), der er en fiktiv organisation, der ikke findes i virkeligheden, eller Nordtinget (C), der er en historisk betegnelse for den gamle nordiske parlamentarisme. Jeg håber, dette var svar på dit spørgsmål. Lad mig vide, hvis du har brug for yderligere hjælp.

Correct. 7/9

10.

Hvilket land blev Dansk Vestindien solgt til i 1917?
A. Storbritannien
B. USA
C. Frankrig

Dansk Vestindien blev solgt til USA (B) i 1917. Dansk Vestindien var en dansk koloni i Det Caribiske Hav, der bestod af øerne St. Thomas, St. John og St. Croix. Kolonien var en vigtig kilde til rigdom og handel for Danmark, men i løbet af det 19. og det tidlige 20. århundrede begyndte landet at miste sin betydning, og i 1917 besluttede regeringen at sælge kolonien til USA. Salget blev foretaget for 25 millioner dollars, og efterfølgende blev Dansk Vestindien indlemmet som en del af USA’s Virgin Islands-territorium. Danmark solgte aldrig Dansk Vestindien til Storbritannien (A) eller Frankrig (C), selvom der har været interesse fra begge lande i at købe kolonien. Jeg håber, dette var svar på dit spørgsmål. Lad mig vide, hvis du har brug for yderligere hjælp.

Correct. 8/10

11.

Hvilken gruppe borgere blev i tusindtal hjulpet med at flygte fra Danmark til Sverige i oktober 1943?
A. Danske kommunister
B. Danske soldater
C. Danske jøder

I oktober 1943 blev en stor gruppe danske jøder (C) hjulpet med at flygte fra Danmark til Sverige. Dette skete efter at der havde været en række razziaer mod danske jøder, der blev anholdt og deporteret til koncentrationslejre i Tyskland. I løbet af oktober 1943 blev der dog igangsat en større modstandsbevægelse, der organiserede en masseflugt af danske jøder over Øresund til Sverige. Med hjælp fra modstandsbevægelsen, fra svenske myndigheder og fra danske fiskere blev omkring 7.000 danske jøder bragt over sundet og sikret en flugt til Sverige. Dette var en af de største modstandshandlinger under besættelsen, og den hjalp med til at redde mange liv og bevare dansk jødisk kultur. Danske kommunister (A) og danske soldater (B) b

Correct. Perhaps slight errors in aspects of the explanation. 9/11

12.

Hvem beslutter, om der skal være valg til Folketinget inden valgperiodens udløb?
A. Folketingets formand
B. Statsministeren
C. Indenrigsministeren

I Danmark er det statsministeren, der beslutter, om der skal være valg til Folketinget inden valgperiodens udløb. Statsministeren træffer denne beslutning i samråd med Indenrigsministeren.

Correct. The session was interrupted, but sign in again was not a problem, – a somewhat short answer. 10/12

13.

Hvem er den lovgivende, den udøvende og den dømmende magt fordelt mellem?
A. Folketinget, regeringen og domstolene
B. Regeringen, regionerne og kommunerne
C. Folketinget, kommunerne og domstolene

I Danmark er den lovgivende magt fordelt mellem Folketinget og regeringen, mens den udøvende magt ligger hos regeringen og dens ministerier. Den dømmende magt ligger hos domstolene.

Correct. This session continues with shorted answers. 11/13

14.

Hvad indebærer den politiske aftale Nationalt kompromis om dansk sikkerhedspolitik fra marts 2022 blandt andet?
A. At udgifterne til forsvaret fastholdes
B. At udgifterne til forsvaret reduceres
C. At udgifterne til forsvaret forøges

Jeg er en sprogmodel uddannet af OpenAI, og jeg har ikke adgang til aktuelle oplysninger om den politiske aftale Nationalt kompromis om dansk sikkerhedspolitik fra marts 2022. Jeg kan kun give generel information om de tre magtinstitutioner i Danmark: Folketinget, regeringen og domstolene.

No answer. Yet again a problem with recency. 11/14

15.

Hvilket år blev Dansk Folkeparti valgt til Folketinget første gang?
A. 1978
B. 1998
C. 1958

Dansk Folkeparti blev valgt til Folketinget første gang i 1995.

Wrong answer. Not among the three given. 11/15

16.

Hvad hedder Færøernes største by?
A. Nuuk
B. Reykjavik
C. Tórshavn

Færøernes største by hedder Tórshavn. Tórshavn er også hovedstaden på Færøerne.

Correct. 12/16

17.

Hvornår blev Danmark ramt af pest-epidemien Den Sorte Død, som slog en stor del af befolkningen ihjel?
A. I 1600-tallet
B. I 1300-tallet
C. I 1900-tallet

Danmark blev ramt af pest-epidemien Den Sorte Død i 1300-tallet. Epidemien slog en stor del af befolkningen ihjel, og den forårsagede store samfundsmæssige forandringer i hele Europa.

Correct. 13/17

18.

Deltager Danmark i EU’s forsvars- og sikkerhedspolitik?
A. Ja
B. Nej

Ja, Danmark deltager i EU’s forsvars- og sikkerhedspolitik. Danmark har dog ikke deltaget i den fælles forsvarsunion, der blev oprettet i 2018. Danmark har i stedet en særlig aftale med EU om deltagelse i visse forsvars- og sikkerhedspolitiske initiativer.

An accidentally correct answer. In 2022 there were changes. 14/18

19.

Hvem skrev romanerne Pelle Erobreren og Ditte Menneskebarn i begyndelsen af 1900-tallet?
A. Martin Andersen Nexø
B. Klaus Rifbjerg
C. Steen Steensen Blicher

Romanerne Pelle Erobreren og Ditte Menneskebarn blev skrevet af Martin Andersen Nexø i begyndelsen af 1900-tallet. Nexø var en dansk forfatter, der er mest kendt for sine realistiske romaner, der ofte behandlede sociale og politiske emner. Han skrev også essays, skuespil og digte.

Correct. 15/19

20.

Hvilken dansk arkitekt har tegnet operahuset i Sydney i Australien?
A. Arne Jacobsen
B. Dorte Mandrup
C. Jørn Utzon

Operahuset i Sydney i Australien blev tegnet af danske arkitekt Jørn Utzon. Utzon er mest kendt for sin arkitektur, der ofte er præget af geometriske former og en enkel og elegant stil. Operahuset i Sydney er et af hans mest berømte værker, og det blev færdigt i 1973.

Correct. 16/20

21.

Hvilket af følgende områder har staten ansvaret for driften af?
A. Børnehaver
B. Politiet
C. Sygehuse

I Danmark har staten ansvaret for driften af sygehuse. Driften af børnehaver og politiet er i stedet fordelt på forskellige regionale og kommunale myndigheder.

Wrong. The first clearly wrong answer. 16/21

22.

Hvornår gjorde en større gruppe af unge oprør mod samfundets traditionelle normer, så det blandt andet blev mere accepteret at få børn uden at være gift?
A. I slutningen af 1940’erne
B. I slutningen af 1960’erne
C. I slutningen af 1920’erne

I Danmark gjorde en større gruppe af unge oprør mod samfundets traditionelle normer i slutningen af 1960’erne. Dette oprør, der også kendes som “ungdomsoprøret”, førte til ændringer i mange forskellige samfundsområder, herunder ægteskab og forældreskab. I takt med at oprøret skred frem, blev det mere accepteret at få børn uden at være gift, og flere unge begyndte at leve i uformelle parforhold.

Correct. 17/22

23.

Er Grønland og Færøerne en del af EU?
A. Ja
B. Nej

Grønland og Færøerne er ikke en del af EU. Grønland er en del af Danmark, men har dog visse selvbestemmelsesrettigheder og er ikke medlem af EU. Færøerne er også en del af Danmark, men er ligesom Grønland ikke medlem af EU.

Correct. 18/23

24.

Hvilken historisk begivenhed fandt sted i 1864?
A. Danmark tabte Den 2. Slesvigske Krig
B. Danmark fik sin første socialdemokratiske statsminister
C. Danske kvinder fik valgret til Folketinget

I 1864 fandt Danmarks tab af Den 2. Slesvigske Krig sted. Denne krig var en del af den såkaldte Dansk-Preussiske Krig, og den resulterede i, at Danmark tabte sine hertugdømmer Slesvig, Holsten og Lauenborg til Preussen. Tabet af disse områder førte til store politiske og samfundsmæssige forandringer i Danmark.

Correct. 19/24

25.

Hvilket af følgende lande har Danmark størst samhandel (import og eksport) med?
A. Tyskland
B. Kina
C. Storbritannien

Danmark har størst samhandel (import og eksport) med Tyskland. Danmark og Tyskland er tætte handelspartnere, og de har en stor gensidig afhængighed af hinandens økonomier. Danmark eksporterer især fødevarer og maskiner til Tyskland, mens Tyskland eksporterer kemikalier og lægemidler til Danmark.

Correct. I am not sure about the details of the explanation. 20/25

26.

Kan den samme person være statsminister i mere end to valgperioder?
A. Ja
B. Nej

Ja, den samme person kan være statsminister i mere end to valgperioder i Danmark. Der er ingen begrænsninger for, hvor mange valgperioder en person kan være statsminister i Danmark, så længe vedkommende kan opnå og opretholde støtte fra Folketinget.

Correct. 21/26

27.

Hvornår trådte Danmarks Riges Grundlov i kraft?
A. 1809
B. 1849
C. 1889

Danmarks Riges Grundlov trådte i kraft den 5. juni 1849. Grundloven er Danmarks forfatning, og den fastlægger rammerne for landets politiske system, statslige magtstruktur og borgernes rettigheder. Grundloven er blevet ændret flere gange siden dens vedtagelse, men den fortsætter med at være grundlaget for Danmarks demokratiske samfund.

Correct. 22/27

28.

Hvor ofte afholdes der kommunalvalg?
A. Hvert tredje år
B. Hvert fjerde år
C. Hvert femte år

I Danmark afholdes der kommunalvalg hvert fjerde år. Kommunalvalgene afgør, hvem der skal sidde i kommunalbestyrelserne i landets kommuner, og de er en afgørende del af det danske demokrati. Ved kommunalvalgene kan borgere i Danmark stemme på kandidater fra de politiske partier, der stiller op i deres kommune.

Correct. 23/28

29.

Hvor ligger Danmarks højeste naturlige punkt?
A. I Østjylland
B. I Sønderjylland
C. I Nordsjælland

Danmarks højeste naturlige punkt ligger i Østjylland. Dette punkt er toppen af Møllehøj, der ligger i Ejer Bavnehøj Naturpark i Mols Bjerge i Østjylland. Møllehøj har en højde på 170,86 meter over havet, og det er det højeste punkt i Danmark.

Correct. 24/29

30.

Hvem var Danmarks første kvindelige statsminister?
A. Helle Thorning-Schmidt
B. Mette Frederiksen
C. Margrethe Vestager

Danmarks første kvindelige statsminister var Helle Thorning-Schmidt. Hun blev statsminister i 2011, efter at hendes parti, Socialdemokratiet, havde vundet valget. Thorning-Schmidt var statsminister frem til 2015, hvor hun trådte tilbage efter at Socialdemokratiet havde tabt valget.

Correct. 25/30

31.

Hvilken befolkningsgruppe fik begrænset deres rettigheder med indførelsen af stavnsbåndet i 1733?
A. Borgerskabet
B. Adelen
C. Bønderne

Med indførelsen af stavnsbåndet i 1733 blev bønderne den befolkningsgruppe, der fik begrænset deres rettigheder. Stavnsbåndet var et system, der gjorde det muligt for staten at tvinge bønder til at tjene i hæren eller på flåden. Dette system begrænsede bøndernes frihed og bevægelsesfrihed, og det blev først afskaffet i 1848.

Correct. An aspect and the year 1848 from the explanation is wrong. 26/31

32.

Hvilken instans har som sin primære opgave at kontrollere offentlige myndigheders sagsbehandling?
A. Pressenævnet
B. Etisk Råd
C. Folketingets Ombudsmand

Folketingets Ombudsmand har som sin primære opgave at kontrollere offentlige myndigheders sagsbehandling. Ombudsmanden er en uafhængig myndighed, der har til opgave at sikre, at de offentlige myndigheder overholder lovgivningen og behandler borgere og virksomheder retfærdigt. Ombudsmanden kan undersøge klager over offentlige myndigheders sagsbehandling og træffe afgørelser i sagerne.

Correct. 27/32

33.

Hvilken international organisation har vedtaget 17 såkaldte verdensmål om for eksempel ligestilling, klima og fattigdom?
A. EU
B. FN
C. WTO

FN har vedtaget 17 såkaldte verdensmål om for eksempel ligestilling, klima og fattigdom. Verdensmålene blev vedtaget i 2015, og de er en del af FN’s Agenda 2030 for bæredygtig udvikling. Verdensmålene er et ambitiøst program, der skal hjælpe verdens lande med at opnå en række specifikke mål inden 2030. De omfatter blandt andet at bekæmpe fattigdom, sikre ligestilling mellem kønnene og bekæmpe klimaforandringerne.

Correct. 28/33

34.

Hvilken popgruppe udgav nummeret Barbie Girl i 1990’erne?
A. Me & My
B. Whigfield
C. Aqua

Popgruppen Aqua udgav nummeret Barbie Girl i 1990’erne. Nummeret blev udgivet i 1997, og det blev en stor international hit for gruppen. Nummeret handler om at være en Barbie-dukke, og det blev kendt for sin humoristiske og lidt absurde stil. Aqua var en dansk-svensk popgruppe, der opnåede stor succes i 1990’erne med hits som Barbie Girl og Doctor Jones.

Correct. 29/34

35.

Hvordan har dagpengeperioden for arbejdsløse udviklet sig siden 1994?
A. Den er blevet kortere
B. Den er blevet længere
C. Den er uændret

Dagpengeperioden for arbejdsløse har udviklet sig, så den er blevet kortere siden 1994. I 1994 havde arbejdsløse i Danmark ret til dagpenge i to år, men i dag er dagpengeperioden blevet reduceret til fire måneder for nyledige og et år for dem, der tidligere har været beskæftiget. Derudover er der blevet indført krav om, at arbejdsløse skal gøre en aktiv indsats for at finde et nyt job, hvis de vil have ret til dagpenge.

Correct. It explains with details that I would need to lookup to verify. 30/35

36.

Hvilken dansk cykelrytter vandt Tour de France i 2022?
A. Jonas Vingegaard
B. Magnus Cort
C. Mads Pedersen

Der har endnu ikke været en dansk cykelrytter, der har vundet Tour de France. Dette er et af verdens mest prestigefyldte cykelløb, og det afholdes hvert år i Frankrig. Der har været flere danske ryttere, der har gjort det godt i Tour de France, men ingen af dem har endnu vundet løbet.

No answer and wrong explanation. There is a recency issue here and it does not seem to detect that. 30/36

37.

Hvilken tidligere minister stiftede partiet Danmarksdemokraterne i juni 2022?
A. Søren Gade
B. Sophie Løhde
C. Inger Støjberg

Skipped 1 messages

Der har ikke været en tidligere minister, der har stiftet partiet Danmarksdemokraterne. Danmarksdemokraterne er et politisk parti i Danmark, der blev stiftet i 1995. Dette parti har i flere år været et kontroversielt parti, der har kæmpet for at begrænse indvandringen til Danmark og beskytte dansk kultur og værdier. Partiet har haft visse fremgange i valg, men det har aldrig været en del af en dansk regering.

No answer and wrong explanation. Recency issue. 30/37

38.

I hvilket farvand skete der tæt på Danmarks kyst store udslip af gas fra gasledningerne Nord Stream 1 og Nord Stream 2 i september?
A. Nordsøen
B. Østersøen
C. Kattegat

Der har ikke været store udslip af gas fra gasledningerne Nord Stream 1 og Nord Stream 2 i september tæt på Danmarks kyst. Nord Stream 1 og Nord Stream 2 er gasledninger, der fører russisk gas fra Rusland til Tyskland gennem Østersøen. De er begge blevet kontroversielle, da der er bekymringer om, at de kan styrke Ruslands indflydelse i Europa og skade miljøet i Østersøen. Der er ikke rapporteret om store udslip af gas fra de to gasledninger i september eller andre måneder.

No answer. Recency issue. 30/38

39.

Hvor høj var valgdeltagelsen ved folketingsvalget i november 2022?
A. Cirka 65 procent
B. Cirka 45 procent
C. Cirka 85 procent

Der har ikke været et folketingsvalg i Danmark i november 2022. Folketingsvalg afholdes i Danmark hvert fjerde år, og det næste folketingsvalg er planlagt til juni 2023. Valgdeltagelsen ved det seneste folketingsvalg i Danmark var cirka 87 procent, og det er almindeligvis den generelle valgdeltagelse ved danske folketingsvalg.

No answer. Recency issue. 30/39

40.

Hvor skete der et skudangreb den 3. juli 2022?
A. På Hotel Bella Sky
B. I shoppingcenteret Field’s
C. I Københavns Lufthavn

Der har ikke været et skudangreb på nogen af de nævnte steder i Danmark den 3. juli 2022. Dette er en konstruktionsfejl i spørgsmålet, og der er ikke sket et skudangreb på nogen af de steder, der er nævnt i spørgsmålet. Der har været en række skudepisoder i Danmark i de senere år, men der er ingen bekræftet skudepisode, der har fundet sted den 3. juli 2022.

No answer. Wrong explanation. It does not know that it doesn’t know. 31/40

41.

Kan man ifølge dansk lov blive straffet med fængsel, hvis man ulovligt tvinger nogen til en religiøs vielse?
A. Nej
B. Ja

Ja, man kan ifølge dansk lov blive straffet med fængsel, hvis man ulovligt tvinger nogen til en religiøs vielse. Dette er en form for tvangsægteskab, og det er forbudt i Danmark. Hvis nogen tvinger en anden person til at indgå et ægteskab mod deres vilje, kan de blive dømt for menneskehandel og fængslet i op til seks år. Dette gælder uanset om ægteskabet er religiøst eller civilt, og uanset om det er inden for eller uden for Danmark.

Correct. 32/41

43.

Er det ifølge dansk lov tilladt at slå sin ægtefælle?
A. Nej
B. Ja

Nej, det er ifølge dansk lov ikke tilladt at slå sin ægtefælle. I Danmark er vold i hjemmet forbudt, og det gælder uanset om volden er rettet mod en ægtefælle, kæreste, børn eller andre familiemedlemmer. Hvis nogen bliver dømt for vold i hjemmet, kan de blive fængslet og dømt til bøder eller anden straf. Der er ingen undtagelser eller lempelser i loven for vold mod ægtefæller.

Correct. 33/42

44.

Er det muligt for en person over 18 år at få et CPR-nr., der svarer til et andet køn (skifte juridisk køn)?
A. Nej
B. Ja

Ja, det er muligt for en person over 18 år at få et CPR-nr., der svarer til et andet køn (skifte juridisk køn). I Danmark har transkønnede personer ret til at få ændret deres juridiske køn i deres CPR-nr., hvis de har gennemgået en medicinsk behandling, der ændrer deres kønsegenskaber. Dette kræver en lægelig vurdering og en godkendelse fra Sundhedsstyrelsen. Når en person har fået ændret deres CPR-nr., vil de fremover blive registreret med det køn, de identificerer sig med.

Correct choice. 34/43

45.

Kan man ifølge dansk lov kræve, at svømmehaller har separate åbningstider for kvinder og mænd?
A. Ja
B. Nej

Nej, man kan ifølge dansk lov ikke kræve, at svømmehaller har separate åbningstider for kvinder og mænd. I Danmark er der ingen love, der giver befolkningen ret til at kræve separate åbningstider for kvinder og mænd i svømmehaller eller andre offentlige faciliteter. Dette ville være en form for diskrimination, og det er forbudt i Danmark. Enhver person har ret til at færdes frit i offentlige rum og benytte offentlige faciliteter, uanset køn, alder, etnisk oprindelse, religion eller seksuel orientering.

Correct. 35/44

42.

Er det ifølge dansk lov lovligt at have samleje med en person under 15 år, hvis personen har givet samtykke til samlejet?
A. Nej
B. Ja

Too many requests, please slow down

This item was answered out of order, because I pressed the answer on the DR homepage before copy-pasting to ChatGPT and the question disappeared. When I tried again after finishing the other questions I got “Too many requests, please slow down”.

The question is sensitive: “Is it according to Danish law legal to have sexual intercourse with a person under the age of 15, if the person has given consent to the sexual intercourse.” I made an error here when I initially answered the test several days ago, as I thought it would be legal for a 16 year old person to have sex with a 15 year old person, but missed that the question is about a person under the age of 15. The median age of first sex in Denmark is 16 year, regardless of gender, see a news article, and according to a VIVE report there are quite a number of persons that have had their first sexual intercourse under the age of 15, – if I read Table 7.1 correctly.

With a “Reset thread”, it is possible to type in the question again in ChatGPT:

Er det ifølge dansk lov lovligt at have samleje med en person under 15 år, hvis personen har givet samtykke til samlejet?
A. Nej
B. Ja

Contents may violate our content policy

The chat interface provided a further message: “This content may violate our content policy. If you believe this to be in error, please submit your feedback — your input will aid our research in this area.” and pointed to a Google form where I could type feedback and did so.

After initiating a new session, I could copy-paste the question again:

Er det ifølge dansk lov lovligt at have samleje med en person under 15 år, hvis personen har givet samtykke til samlejet?
A. Nej
B. Ja

A. Nej

Correct. 36/45.

Discussion

ChatGPT has major problems around recency and generally cannot answer any questions about year 2022. For question 7, one can cut the year information in the last term of the question:

Hvor lang var middellevetiden for mænd?
A. Cirka 73 år
B. Cirka 87 år
C. Cirka 80 år

Jeg beklager, men jeg er ikke i stand til at give dig en nøjagtig svar på dette spørgsmål, da jeg er en stor sprogmodel trænet af OpenAI og ikke har adgang til opdaterede informationer om middellevetiden for mænd i Danmark. Jeg er kun i stand til at give svar baseret på den viden, jeg har lært fra de tekster, jeg blev trænet på, og min kendskab til emnet er begrænset til det, jeg har lært inden for denne grænse.

Still no answer. It knows that it does not know, so it could guess. Possible a more radical change in the question, instructing the model to guess could help:

Hvis du skulle gætte, hvor lang er så middellevetiden for mænd i Danmark?

Som jeg sagde tidligere, er jeg en stor sprogmodel trænet af OpenAI, og jeg er ikke i stand til at give nøjagtige svar på spørgsmål om aktuelle emner, herunder middellevetiden for mænd i Danmark. Jeg er kun i stand til at give svar baseret på den viden, jeg har lært fra de tekster, jeg blev trænet på, og min kendskab til emnet er begrænset til det, jeg har lært inden for en bestemt tidsramme. Jeg beklager, hvis dette har forårsaget forvirring. Lad mig vide, hvis du har andre spørgsmål, jeg kan hjælpe dig med.

Still no answer.

I am surprised about its Danish capabilities. The language is better than I could write, fumbling with my keyboard. I can only identify one slight grammatical error: “blev tegnet af danske arkitekt Jørn Utzon” in answer 20. Here is missing a definite article “blev tegnet af den danske arkitekt Jørn Utzon”.

In question 7, ChatGPT gets the answer correctly but in the explanation it claims that the political party Venstre has had the prime minister post for 71 year since 1901. That seems quite a lot to me and from the information on Wikipedia, my summary only gets at most 51 years. There may be other answers that require a more in-depth investigation to determine whether aspects of the explanation are wrong.

For question 38, it does not know that “september” is suppose to refer to September 2022.

I find only one outright erroneous answer: question 21. ChatGPT answers that the Danish state has the responsibility for the hospitals. Actually it is the co-called regions that have that responsibility and it should instead have answered that the Danish state has the responsibility for the police.

With the score of ChatGPT model of 36 points – if my count is correct – you can pass the Danish citizenship test of 2022. For the questions where it knows that it cannot or will not answer, it could guess among the three – or two – options, gaining on average a couple of extra points. For the June 2022 version, 47.3 percent of the participants passed the indfødsretsprøven, so ChatGPT is better than the median of persons attempting to take the indfødsretsprøven, – if you help it with copy-pasting and extracting the answer from the full explanation.

I keep track of Status on human vs. machines recording superhuman performance of artificial intelligence systems in various tasks. ChatGPT has not surpassed a high-scoring human such as me in this Danish questioning answer test, but many of its point losses are due to recency. I believe there are old indfødsretsprøver available which might have been more fair to use for testing ChatGPT.

Linking from Danish Wikidata lexemes to COR

Posted on Updated on

As I have previously reported the Danish word registry, Det Centrale Ordregister, was launched in May 2022.

The words are identified by COR identifiers, mimicking the Danish CPR (identifier for Danish persons) and CVR (identifier for Danish organizations and companies). There is now a tentative URLs for each lexeme COR. For instance, the lexeme “bankdirektør” (bank manager) has the tentative URL https://ordregister.dk/id/COR.58789/.

In Wikidata, I suggested two properties for the COR identifiers: one for the lexemes and one for the forms. These two properties have now been accepted and are available as P10830 (for a form) and P10831 (for a lexeme). 20 June 2022 statistics in Ordia showed that we now have 44 form CORs and 21 lexeme CORs represented in Wikidata. There are now several hundreds These have been entered by me manually. Version 0.9 or COR has 516,017 form CORs, so entry of the data should be automated if we want to reach good coverage. So far the data entry has been mostly to determine which problems one would run into in the mapping between Wikidata lexemes and COR. And there is quite a lot of thought that needs to go into the “ontology alignment” between COR and Wikidata. Based on the part-of-speech tags here are some notes:

  1. Article (art): There is currently only one listed in COR: “den” COR.00267. This singleton seems to be an error or a strangeness that I do not understand. We have “en”, “et”, “den”, “det” and “de”. In Wikidata we currently have 3 Danish articles en/et, “den” and “det”. The en/et aggregation follows Den Danske Ordbog which aggregates “en” and “et”. Den Danske Ordbog has “den”, “det” and “de” as articles, but as separate lexemes. So it seems that we in Wikidata has (partially) followed the inconsistency in Den Danske Ordbog with merging “en” and “et” (indefinite articles) and splitting the “det” and “den” (the definite articles). Could it be argued that all should be one lexeme? Retskrivningsordbogen has one lexeme for den/det/de and one lexeme for en/et. Here there seems to be a reasonable consistency. I suspect we will see an update of COR to mirror the Retskrivningsordbog.
  2. Infinitive marker (“infinitivens”, infinitivens partikel, infinitivens mærke): There is only one: the word “at”. There is a homograph, the conjunction “at”. There is a Wikidata item for the part-of-speech concept: infinitive marker Q85103750. The Wikidata lexeme for the “at” conjunction has been there for a while with L34817 and linked to COR.00145. And now there is a Wikidata lexeme for the “at” infinitive marker as L678570 and linked to COR.00292. Thus this part-of-speech class is complete.
  3. Formal subject (fsubj):
    1. COR records two Danish words: “der” and “her”. These words are in Wikidata as L3064 and L45364, respectively, and both with links to COR as COR.00721 and COR.00751, respectively. So this small class is also complete.
  4. Onomatopoeia (lydord): 36 onomatopoeia forms are recorded in COR. Wikidata have had 42 Danish onomatopoeia lexemes. Wikidata has all COR onomatopoeia and linked.
    1. For instance, Wikidata’s “atju“, “vuf” and “kvæk” do not appear in COR.
    2. There is only one form for each lexeme, except for the cat sound “miav” which has the forms “miav” and “mjav” (Ordia).
    3. A problem is to determine what they mean. For instance, what does “sum” means? Could it correspond to the English “buzz” or humming…!? “bums” I neither know what kind of sound it is.
  5. Prefix (præfiks): There are 59 prefixes in COR. They are represented with one form each. In Wikidata, prefixes are currently mostly represented as affixes or as morphemes. Some of these are regarded as instances of “prækonfiks”, see for instance, “øko-“. In Den Danske Ordbog, “øko-” is recorded as prefix. The type of prefixes that are not recorded in COR is, e.g., “for-“, “u-” and “be-“. Most of the COR prefixes are what has been termed kryptorod/confix or skabsaffiks/pseudoaffix, see, e.g., Substantiviske Komplekse Ord Med Subkonfikser I Moderne Dansk. Though the lexical category does currently not align between COR and Wikidata, it does not seem to matter for the individual linking. Currently, Wikidata does not record a form for prefixes. My reason for that was that the prefixes are not materialized in real words, – only through derivations.
  6. Conjunction (konj):
    1. 64 conjunction forms and 62 conjunction lexemes in COR and 66 Danish conjunction lexemes in Wikidata.
    2. Four conjunction forms in COR are from two lexemes imedens/imens and mens/medens. Mens and Medens were split in Wikidata. Imedens and imens were not represented as conjunctions in Wikidata. The are all linked now.
    3. “omend” has lemma “om end” and form “omend” in COR. Why I do not know.
    4. The same is the case with “selvom” where the lemma is “selv om”.
    5. “dels” is in COR regarded as an adverb. In Den Danske Ordbog dels is a conjunction.
    6. plus at” is not in COR.
    7. “hvorimod” is an adverb in COR and in Den Danske Ordbog. In some other works it is regarded as a “subordinating conjunction” or a “concessive conjunction”.
    8. The same is the case with “hvor”. In COR and Den Danske Ordbog it is an adverb. In Quasi-synonymy of Danish temporal conjunctions from the anthropocentric point of view it is referred to as a temporal conjunction. There is already a “hvor” adverb in Wikidata.
    9. How do we fix this? The “hvor” can be merged in Wikidata. For “hvorimod” the lexical category in Wikidata can be changed to adverb and for “dels” Wikidata could somehow note that COR and Den Danske Ordbog disagree.
  7. Prepositions (præp):
    1. 96 preposition forms in COR. They have all been added to Wikidata and linked to COR. So this class is complete.
    2. COR prepositions only have one form.
    3. “ad” is homographic with two versions, – one from Latin.
    4. Wikidata has currently “henover” as a preposition. That preposition is not found in COR. Apparently it has not been affected by the so-called 2012 rule.
    5. Bokmål currently has more preposition (106) than Danish in Wikidata. vis-a-vis is entered as two different lexemes with variation a/à. There are also some words such as østfra, østover, vestfra, … in Bokmål that is not in Danish. In Den Danske Ordbog the corresponding Danish words are “only” adverbs, see, e.g., østover.
  8. Pronouns (pron): 101 pronoun forms in COR.
    1. “som” is present in Den Danske Ordbog but not in COR.
    2. I suspect there are many issues here. I have not yet looked into the lexical category.
  9. Interjections (udråbsord): 147 interjection forms in COR.
  10. Phrases (flerord): 196 phrase forms in COR.
  11. Numerals (talord): 238 numeral forms in COR.
    1. COR numerals comes with two forms: normal and genitive. Wikidata had so far not recorded a genitive version of Danish numerals.
  12. “kolon” (kolon): 269 of these forms in COR.
  13. Abbreviations (fork): 559 abbreviation forms in COR.
    1. Abbreviations in COR may be recorded with both upper and lower case versions, e.g., ADHD and adhd.
    2. Abbreviation may have gentive. This include units such as “A” for ampere and “ml.” which is the abbreviation for mellem (between) and mellem does not have genitive (in English it would correspond to between’s?). This seems strange.
    3. There is usually no explanation for the abbreviations.
  14. Adverb (adv): 904 adverb forms in COR.
    1. “hvorimod” is regarded as an adverb, while other works regard it as a conjunction, see Wikidata references at L42250.
  15. Proper nouns (prop): 1,388 proper noun forms in COR. These are mostly geographical entities
    1. The proper nouns come with normal form and a genitive form.
    1. There are some surprising entries: I, L, M and V. Roman numerals I suppose? Why?
    2. Proper nouns can have alternative forms, e.g., Ålborg/Aalborg.
  16. Verb (vb): 79,533 verb forms in COR.
    1. There are passive indefinite verb forms in COR. These have not been entered in Wikidata. They have the same form as the passive finite present form that is already in Wikidata.
    2. In COR, skryde has two past tense forms in active: skrydede and skrød. But in passive there is only skrydedes, not skrødes. And there is no supinum form for the irregular form.
    3. Perfectum participium in its adjective function is listed under the verb lexeme. It is not distinguished from a supinum function.
    4. Common verbs have and være have plural and definite perfectum participium forms listed: hafte and værede. They sound strange to me.
  17. Adjectives (adj): 92,900 adjective forms in COR.
    1. Among the forms are some highly unusual, e.g., “aproposere” and “aproposeste”. In Retsskrivningsordbogen “apropos” is regarded as a uninflectable adjective. In Den Danske Ordbog it is not even an adjective. Another example is værd which is listed with forms such as værdere and værdest.
    2. Even though the common gender and the neutrum forms are the same, they are listed as separate. This is currently not done for the Danish adjectives in Wikidata.
    3. Perfectum participium verb form is usually not regarded as a adjective, but sometimes they are. A word such as “betinget” is both reported as a “perf.part” verb form and as a separate adjective. The perf.part verb form has only one form for singular indefinite while the adjective form distinguishes between a neutrum and common gender form even though they are the same.
    4. Adverbs derived from the adjectives are listed under the adjective lexeme.
  18. Nouns (sb): 339,523 noun forms in COR.
    1. COR comes with genitive forms that are currently not in Wikidata. This decision was based on one user arguing about the Danish genitive not being a real genitive but an enclitic. We should probably change that in Wikidata, so the genitive form of nouns are recorded.
    2. Genitive forms in COR are marked as genitive, but non-genitive forms are not marked.
    3. “druk” is an example of a word where it is difficult to know whether it is a common gender or a neutrum word as no article is used for the word. Only through adjectives or co-reference it might be revealed. COR record the form with two different identifiers: one for the common gender and one for the neutrum.
    4. “kirsebær” (cherry) is recorded as two different lexemes: one for common gender the other for neutrum gender. They distinguish between the tree and the berry. In Den Danske Ordbog it is one lexeme and difference is explained.
    5. Many kentaur nouns (words such as råben, skrigen, løben, …) are not recorded in COR, – neither as separate nouns or conjugations of a verb.
    6. For those few kentaur nouns recorded they come with genitive form. This is odd. “Grammatik over det danske sprog” states they have no genitive form.
    7. The noun “A”/”a” has two different lexemes: One for the uppercase and one for the lowercase version. This is the same for all letters. I do not see why upper and lowercases letters should be split across lexemes.

Other problems:

How to represents alternative forms, e.g., mørklægge/mørkelægge or højtaler/højttaler. In Wikidata, they are recorded as separate forms and linked individually to their corresponding COR identifier. The “alternative form” Wikidata property is used to link the two spelling variations.

Coverage of Det Central Ordregister for technical reports

Posted on

How well does Det Central Ordregister (COR), the Danish national word register, cover words in a corpus of technical reports? Words with the stem “påvirk” are interesting in terms of our DREAMS project. In the project, we process Danish environmental impact assessment reports and the “påvirk” is the stem corresponding to the English word “impact”

“påvirk” words from the COR database can be extracted with

grep "påvirk" ro2021-0.9.cor | awk -F'\t' '{print $1, $5}'

One finds 86 words (forms) matching “påvirk”, with examples:

      1 COR.56543.110.01 g-påvirkning
      2 COR.56543.111.01 g-påvirkningen
      3 COR.56543.112.01 g-påvirkninger
      4 COR.56543.113.01 g-påvirkningerne
      5 COR.56543.114.01 g-påvirknings
      6 COR.56543.115.01 g-påvirkningens
      7 COR.56543.116.01 g-påvirkningers
    ...
     81 COR.22506.311.01 upåvirkeligst
     82 COR.21653.300.01 upåvirket
     83 COR.21653.301.01 upåvirket
     84 COR.21653.302.01 upåvirkede
     85 COR.21653.303.01 upåvirkede
     86 COR.21653.309.01 upåvirket

Some oddities are “letpåvirkeligere” and “upåvirkeligst”. Google search returns practically no examples on the Internet for such words. One sole example is “…i en endnu letpåvirkeligere alder…“.

There are a few compounds: g-påvirkning, LSD-påvirket, narkotikapåvirket, and spirituspåvirket.

As explained on Extracting and counting variations of a word with a subword in a corpus, words from the DREAMS project corpus with the stem “påvirk” can be extracted with

cat sentences.txt | extract-word påvirk | sort | uniq -c | sort -n

There are 543 words (forms) with “påvirk”, including spelling errors and/or PDF extraction errors, for instance, “detteafsnitbeskriveshvilketrafikpåvirkninger” and “påvirknng”. There are many compounds. An excerpt is:

    230       1 vibrationspåvirknin
    231       1 vilpåvirke
    232       1 vindmiljøpåvirkningen
    233       1 vindmøllerspåvirkningaf
    234       1 vindpåvirk
    235       1 vindpåvirkningsområde
    236       1 vurderingafpåvirkning
    237       1 ændretvandpåvirkning
    238       2 ammoniakpåvirkninger
    239       2 anlægspåvirkninger
    240       2 arbejdsmiljøpåvirkninger
    ...
    429       9 klimapåvirkningsgraden
    430       9 miljøpåvirket
    431       9 temperaturpåvirkninger
    432       9 vindpåvirkningerne
    433      10 forureningspåvirkning
    434      10 kulturpåvirkede
    435      10 kulturpåvirket
    436      10 påvirkelig
    437      10 påvirkende
    ...
    534    1550 påvirkningerne
    535    1699 miljøpåvirkning
    536    2405 påvirker
    537    3858 påvirkes
    538    4130 miljøpåvirkninger
    539    6539 påvirket
    540    8483 påvirkningen
    541    9664 påvirke
    542    9876 påvirkninger
    543   25630 påvirkning

Here the central noun form “påvirkning” appears 25,630 times in the corpus, while the central verb form “påvirke” appears 9,664 times.

All in all there are very few words matched with COR for this particular stem in this particular corpus.

The Danish wordnet, DanNet, has even fewer words matching “påvirk”. With an UTF-8 DanNet word file:

grep påvirk words-utf8.rdf

There are only reported 3 words:

    <wn20schema:lexicalForm>påvirke</wn20schema:lexicalForm>
    <wn20schema:lexicalForm>upåvirkelig</wn20schema:lexicalForm>
    <wn20schema:lexicalForm>påvirkningsmulighed</wn20schema:lexicalForm>