Data Mining - Vad det är, definition och koncept

Data mining är processen att söka i stora databaser för att hitta användbar information som kan användas för beslutsfattande. Den engelska termen "data mining" används också.

Det kan förstås som den teknik och programvara som används för att hitta beteendemönster i databasen. Den grundläggande grunden för detta är att dessa mönster hjälper beslutsfattandet. Det kan till exempel hjälpa företag att förstå deras kunders beteendemönster. På ett sådant sätt att det skulle underlätta upprättandet av strategier för att öka försäljningen eller minska kostnaderna.

Fördelar med datautvinning

Den grundläggande fördelen med denna dataanalysprocess är det stora antalet affärsscenarier som den kan tillämpas på, som ett exempel vi har:

  • Förutsägelse: Prognos för företagets försäljning.
  • Sannolikhet: Val av de bästa klienterna för direktkontakt antingen via telefon eller e-post.
  • Sekvensanalys: Analys av de produkter som kunderna har köpt och kontrollerar sambandet mellan dem.

Stadier av datautvinning

Inom en data miningprocess kan vi hitta fem faser:

  • Mål och datainsamling: Det första av allt är att fokusera på vilken typ av information vi vill få. Låt oss föreställa oss exemplet att en stormarknad vill veta vilken tid på dagen det är där kundnärvaron är mest. Detta skulle vara målet och den information som handeln vill få i detta fall.
  • Databehandling och hantering: När vi känner till de uppgif.webpter vi vill samla in sätter vi in ​​uppgif.webpterna. Detta är kanske den svåraste fasen i processen. Tja, det kräver att du väljer det representativa provet som analysen ska utföras på. När provet väl har valts måste det analyseras vilken typ av variabler eller regressionsmodell som ska utföras på provet.
  • Modellval: Det är nära relaterat till föregående fas. Det handlar om att skapa en modell eller algoritm som ger oss bästa möjliga resultat. För att göra detta måste en utförlig analys av variablerna som ska ingå i modellen göras. Detta blir en komplicerad uppgif.webpt eftersom det beror på vilken typ av information som ska analyseras. Därför utför databearbetare olika tester av algoritmen såsom: linjär regression, beslutsträd, tidsserier, neurala nätverk etc.
  • Analys och granskning av resultat: I grund och botten är det att analysera resultaten för att se om de ger en logisk förklaring. Förklaring som underlättar beslutsfattandet baserat på informationen som ges av resultaten.
  • Modelluppdatering: Det sista steget i processen skulle vara uppdateringen av modellen. Det är mycket viktigt att det görs över tiden så att det inte blir föråldrat. Variablerna i modellen kan bli obetydliga och därför krävs en periodisk kontroll av modellen.

Populära Inlägg

Arbetslösheten i USA är den lägsta siffran sedan 1970

Arbetslösheten i USA har just satt 50 års rekord. Det ligger redan på 3,6% arbetslöshet. Något som många länder inte ens kan drömma om. Medan hela världen fruktar en eventuell nästa ekonomisk lågkonjunktur förblir USA orörd. Trots riskernaLäs mer…

Kaffe futures har minskat med 70% sedan 2011

En av de råvaror som har skapat stort intresse de senaste åren har varit kaffe. Produktionen fortsätter att öka, men priserna har sjunkit med cirka 70%. Kaffemarknaden är en komplex marknad och många faktorer beror på den, inte bara ekonomiskt utan också miljömässigt. Läs mer…

Matteo Salvini hotar att höja underskottet och den italienska riskpremien höjs

Efter ett uttalande av minister Matteo Salvini har den italienska riskpremien ökat sin volatilitet. Deklarationerna baserades på önskan att öka sin skuld och överstiga gränsen för det offentliga underskottet på 3%. Italien är återigen i rampljuset. En situation som föregicks av uttalanden från minister Matteo Salvini, läs mer…

Tilldelare - Vad det är, definition och koncept

✅ Tilldelare | Vad det är, mening, koncept och definition. En fullständig sammanfattning. Tilldelaren är den som avstår från en tillgång, rätt, handling eller säkerhet till förmån för ...…