Sveriges Radio P1 tog i fredags upp problematiken med plagieringssystem vars syfte är att detektera ev. plagiat i inlämnade arbeten. Plagieringssystemen infördes på skolor och högskolor för en några år sedan som ett verktyg för att underlätta samt bredda möjligheten till att upptäcka plagiat i uppsatser, allt i syfte att höja kvaliteten samt att ge studenter en signal om att det finns sätt att upptäcka plagiat. Jag har själv varit ansvarig för införandet av ett sådant system vid högskolan Dalarna där jag arbetar och jag fick ansvaret trots att jag kanske var den som var absolut mest skeptiskt till dessa verktyg. Det är jag fortfarande för min erfarenhet är det inte finns några system som är vattentäta. I våra testar av de system som vi testade inför införandet av ett system på högskolan så framgick det rätt klart att samtliga system hade brister. Precis som vi kan höra i P1s reportage så upptäckte inte heller systemen vi testade de plagierade dokument som vi förde in i systemet, visserligen upptäcktes en hel del men i flera fall så lyckades systemen inte finna helt öppna informationskällor på nätet som t.ex. läkemedelsverkets information. Vi kontrollerade dokumenten parallellt mot Google och det framgick vid flera tillfällen att Google lyckades finna våra källor bättre än de kommersiella system som finns på marknaden och som fokuserar just på att detektera plagiat.
Nu tror jag inte att så många lärare till 100% litar på systemen men i mina utbildningar som jag hållit i gällande plagieringssystem så har jag största fokus på frågan om varför man ev. "fuskar" snarare än att se verktygen som ett sätt att upptäcka plagiat. Fokus ligger allt för ofta på att i efterhand ta itu med problemet för att istället fokusera på vad som ligger till grund för plagiat. Om vi istället kunde fundera på hur vi formulerar frågor för att göra våra prov "unGoogleable/oGooglebara", dvs formulerade på sådant sätt att man inte bara kan Google upp svaret. Om vi arbetar med detta perspektiv kan vi lämna dessa system som inte räcker till.
Jag har fått många frågor som handlar om någon sorts gräns för när man har med plagiat att göra, dvs om vi kan ana att det handlar om plagiat om vi får signaler om att mer än 20% av materialet förefaller vara plagierat. Det bör understrykas i dessa frågor att man kan ha en detektering som visar på 50% likheter med andra källor men som ändå är ett helt korrekt arbete. Vi ska i vetenskapliga arbeten hänvisa till andra källor och så länge vi gör det på rätt sätt så är det korrekt. Om vi däremot kör in ett arbete i våra system som visar på 0% likheter med andra källor...då har vi verkligen problem för det ska inte kunna hända. Jag brukar säga att skillnaden mellan de maskinella systemen och oss människor är att vi kan läsa mellan raderna, detta är en mänsklig funktion som inte kan ersättas av något plagieringssystem i världen.
Det är synd att frågan inte väckts förrän med tanke på att dessa system har funnits i bruk i snart tio år. Elza Dunkels skrev några tänkvärda rader om detta i Umeå Universitets tidning Aktum 2003 i samband med att Umeå skulle införa ett plagieringssystem.
Nu tror jag inte att så många lärare till 100% litar på systemen men i mina utbildningar som jag hållit i gällande plagieringssystem så har jag största fokus på frågan om varför man ev. "fuskar" snarare än att se verktygen som ett sätt att upptäcka plagiat. Fokus ligger allt för ofta på att i efterhand ta itu med problemet för att istället fokusera på vad som ligger till grund för plagiat. Om vi istället kunde fundera på hur vi formulerar frågor för att göra våra prov "unGoogleable/oGooglebara", dvs formulerade på sådant sätt att man inte bara kan Google upp svaret. Om vi arbetar med detta perspektiv kan vi lämna dessa system som inte räcker till.
Jag har fått många frågor som handlar om någon sorts gräns för när man har med plagiat att göra, dvs om vi kan ana att det handlar om plagiat om vi får signaler om att mer än 20% av materialet förefaller vara plagierat. Det bör understrykas i dessa frågor att man kan ha en detektering som visar på 50% likheter med andra källor men som ändå är ett helt korrekt arbete. Vi ska i vetenskapliga arbeten hänvisa till andra källor och så länge vi gör det på rätt sätt så är det korrekt. Om vi däremot kör in ett arbete i våra system som visar på 0% likheter med andra källor...då har vi verkligen problem för det ska inte kunna hända. Jag brukar säga att skillnaden mellan de maskinella systemen och oss människor är att vi kan läsa mellan raderna, detta är en mänsklig funktion som inte kan ersättas av något plagieringssystem i världen.
Det är synd att frågan inte väckts förrän med tanke på att dessa system har funnits i bruk i snart tio år. Elza Dunkels skrev några tänkvärda rader om detta i Umeå Universitets tidning Aktum 2003 i samband med att Umeå skulle införa ett plagieringssystem.
Det är mänskligt att tro att det finns tekniska lösningar på svåra problem liksom att tro att dessa lösningar går att köpa för pengar.
Dessvärre är tekniska lösningar på etiska problem ofta kontraproduktiva, därför att de invaggar oss i ogrundad trygghet, vilket i sin tur gör att vi inte löser det verkliga problemet. I och med att man skaffar sig en paketlösning är det lätt att luta sig tillbaka och tro att problemet är ur världen. Man har dock bara köpt sig lite tid. Tills de man skyddat sig mot hittar nya motdrag, och man måste skaffa ytterligare en lösning. (Elza Dunkels: Aktum 8: 2003 s.22)
Inga kommentarer:
Skicka en kommentar
Obs! Endast bloggmedlemmar kan kommentera.