Un algorithme de réduction d’attributs dynamique basé sur le degré de discernabilité du voisinage relatif

2024-07-08 07:23:50

Algorithme de réduction d’attributs non dynamiques

Les définitions 3 et 4 ci-dessus fournissent des définitions pour le degré de discernabilité du voisinage relatif non étiqueté et étiqueté. En s’appuyant sur les définitions 3 et 4, cette section améliore la définition du degré de discernabilité du voisinage relatif faiblement étiqueté, jetant les bases de la proposition d’un nouvel algorithme pour la réduction d’attributs non dynamiques dans les systèmes de décision incomplets faiblement étiquetés.

Définition 5

Étant donné un système de décision mixte incomplet faiblement étiqueté (WDIS = leftlangle {U,C cup D,V,f} rightrangle),où (B subseteq C),alors le degré de discernabilité du voisinage relatif de (B) sous (U) est :

$$NDD_{B} (U) = NDD_{B}^{M} (C) + NDD_{B}^{L} (D)$$

(5)

Attention particulière : (NDD_{B}^{M} (C) = 0) lorsque (M = emptyset); (NDD_{B}^{L} (D) = 0) lorsque (L = emptyset).

Théorème 1

Étant donné un système de décision mixte incomplet faiblement étiqueté (WDIS = leftlangle {U,C cup D,V,f} rightrangle),où (B_{1} subseteq B_{2} subseteq C), alors : (NDD_{{B_{1} }} (U) ge NDD_{{B_{2} }} (U)).

Preuve

À partir de la définition 5, nous pouvons obtenir directement :

$$begin{recueilli} NDD_{{B_{1} }} (U) – NDD_{{B_{2} }} (U) hfill \ { = }NDD_{{B_{{1}} }}^{M} (C) + NDD_{{B_{{1}} }}^{L} (D){ + }NDD_{{B_{{2}} }}^{M} (C) + NDD_{{B_{{2}} }}^{L} (D) hfill \ = (sumlimits_{i = 1}^{|M|} {|NT_{{B_{1} }}^{delta } (x_{i} )|} – sumlimits_{i = 1}^{|M|} {|NT_{C}^{delta } (x_{i} )|} ) – (sumlimits_{i = 1}^{|M|} {|NT_{{B_{2} }}^{delta } (x_{i} )|} – sumlimits_{i = 1}^{|M|} {|NT_{C}^{delta } (x_{i} )|} ) + (sumlimits_{i = 1}^{|L|} {|NT_{{B_{1} }}^{delta } (x_{i} )|} – sumlimits_{i = 1}^{|L|} {|NT_{{B_{2} }}^{delta } (x_{i} )|} ) hfill \ – (sumlimits_{i = 1}^{|L|} {|NT_{{B_{1} }}^{delta } (x_{i} ) cap [x_{i} ]_{D} |} – sumlimits_{i = 1}^{|L|} {|NT_{{B_{2} }}^{delta } (x_{i} ) cap [x_{i} ]_{D} |} ) hfill \ end{rassemblé}$$

En raison de (B_{1} subseteq B_{2}),alors (forall x_{i} in U) résultant en la satisfaction (NT_{{B_{2} }}^{delta } (x_{i} ) subseteq NT_{{B_{1} }}^{delta } (x_{i} )).

La conclusion à laquelle on est parvenu est que (NDD_{{B_{1} }} (U) ge NDD_{{B_{2} }} (U)).

Le théorème 1 mentionné ci-dessus montre que lorsque l’ensemble d’attributs augmente, le degré de discernabilité du voisinage relatif de l’étiquetage faible n’augmente pas de manière monotone. Cela fournit une base théorique pour la réduction des attributs dans les systèmes de décision incomplets avec étiquetage faible. Par conséquent, sur la base de la monotonie du degré de discernabilité du voisinage relatif de l’étiquetage faible, un algorithme de réduction d’attribut non dynamique peut être construit.

Définition 6

Étant donné un système de décision mixte incomplet faiblement étiqueté (WDIS = leftlangle {U,C cup D,V,f} rightrangle),(forall a in B subseteq C), la signification des attributs internes de (a) est :

$$sig^{intérieur} (a,B) = NDD_{{B – gauche{ a droite}}} (U) – NDD_{B} (U)$$

(6)

Définition 7

Étant donné un système de décision mixte incomplet faiblement étiqueté (WDIS = leftlangle {U,C cup D,V,f} rightrangle),(forall a in C – B), la signification des attributs externes de (a) est :

$$sig^{extérieur} (a,B) = NDD_{B} (U) – NDD_{{B cup gauche{ a droite}}} (U)$$

(7)

Remarque : lorsque (B = emptyset),(NDD_{B}^{M} (C) = |M|^{2}),(NDD_{B}^{L} (D) = |L|^{2}),alors (NDD_{B} (U) = |M|^{2} + |L|^{2}).

Définition 8

Étant donné un système de décision mixte incomplet faiblement étiqueté (WDIS = leftlangle {U,C cup D,V,f} rightrangle), si (R subseteq C) est un ensemble de réduction d’attributs, alors (R) satisfait :

$$begin{rassemblés} (1)NDD_{R} (U) = NDD_{C} (U); hfill \ (2)forall a in R,NDD_{R} (U) le NDD_{{R – left{ a right}}} (U). hfill \ end{rassemblés}$$

(8)

La littérature22 présente un algorithme de réduction d’attributs dynamique basé sur une matrice discriminante pour augmenter l’ensemble d’objets ; tandis que la littérature24 présente un algorithme de réduction d’attributs dynamique pour augmenter l’ensemble d’objets basé sur l’entropie de l’information. Cependant, ces algorithmes ne sont conçus que pour la réduction d’attributs de type de données étiquetées unique et ne sont pas applicables aux données mixtes ou non étiquetées. Pour résoudre ce problème, cet article propose un algorithme de réduction d’attributs non dynamique pour les systèmes de décision mixtes incomplets faiblement étiquetés basé sur le degré de discernabilité du voisinage relatif des étiquettes faibles, comme indiqué dans l’algorithme 1.

Algorithme 1

Un algorithme de réduction d’attributs non dynamique pour les systèmes de décision mixtes incomplets faiblement étiquetés.

Complexité temporelle de l’algorithme non dynamique 1 : l’étape 1 calcule le degré de discernabilité du voisinage relatif de l’ensemble des attributs, dont la complexité temporelle est (O(|U||C|)). L’étape 2 sélectionne les attributs les plus importants de chaque boucle à ajouter à l’ensemble des attributs candidats jusqu’à ce que la condition de terminaison soit satisfaite, dont la complexité temporelle est (O(|U|^{2} |C|^{3} )), et l’étape 5 supprime les attributs redondants de l’ensemble des attributs candidats, dont la complexité temporelle est (O(|U^{2} ||C|^{2} )). Par conséquent, la complexité temporelle de l’algorithme 1 est (O(|U|^{2} |C|)^{3}).

Exemple d’analyse

Pour élaborer davantage l’algorithme de réduction d’attributs non dynamiques 1 du système de décision mixte incomplet faiblement étiqueté proposé dans cet article, la faisabilité de l’algorithme de réduction d’attributs non dynamiques 1 est vérifiée en utilisant les données du tableau 2 comme exemple, avec un rayon de voisinage de (delta = 0,2).

Tableau 2 Systèmes de décision mixtes incomplets faiblement étiquetés.

Le tableau 2 représente un système de décision mixte incomplet faiblement étiqueté, où (U = left{ {x_{1} ,x_{2} ,…,x_{7} } right}),(L = left{ {x_{1} ,x_{2} ,x_{3} ,x_{4} ,} right.left. {x_{5} } right}) est un ensemble d’objets étiquetés et (M = left{ {x_{6} ,x_{7} } right}) est un ensemble d’objets non étiquetés;(C = left{ {C_{1} ,C_{2} , cdots C_{5} } right}) est un ensemble d’attributs,(C_{d} = left{ {C_{1} ,C_{2} ,C_{3} } right}) estensemble d’attributs discrets,(C_{r} = left{ {C_{4} ,C_{5} } right}) est un ensemble d’attributs continus ;(D) est les attributs de décision. Il ressort du tableau 2 que les classes de tolérance de voisinage de (x_{i}) par rapport à (C) sont : (NT_{C}^{delta } (x_{1} ) = { x_{1} });(NT_{C}^{delta } (x_{2} ) = { x_{2} });(NT_{C}^{delta } (x_{3} ) = { x_{3} });(NT_{C}^{delta } (x_{4} ) = { x_{4} ,x_{5} });(NT_{C}^{delta } (x_{5} ) = { x_{4} ,x_{5} });(NT_{C}^{delta } (x_{6} ) = { x_{6} });(NT_{C}^{delta } (x_{7} ) = { x_{7} }).Dans les ensembles de données étiquetés, les catégories de prise de décision pour (x_{i}) sous (D) sont :([x_{1} ]_{D} = [x_{2} ]_{D} = [x_{5} ]_{D} = { x_{1} ,x_{2} ,x_{5} });([x_{3} ]_{D} = [x_{4} ]_{D} = { x_{3} ,x_{4} }).Selon l’étape 1 : Commande (R = emptyset),calculé (NDD_{C} (U) = 2).Selon l’étape 2 :(forall c in C – R),la signification calculée des attributs externes est :(sig^{outer} (c_{1} ,R) = 21),(sig^{outer} (c_{2} ,R) = 15) ,(sig^{outer} (c_{3} ,R) = 19),(sig^{outer} (c_{4} ,R) = 21),(sig^{outer} (c_{5} ,R) = 23).Selon l’étape 3 : Identifier l’attribut dans (C – R) avec la signification la plus élevée pour les attributs externes est (c_{5}),alors (R = R cup gauche{ {c_{5} } droite}),où (NDD_{R} (U) = 6).

Selon l’étape 4 :(NDD_{R} (U) ne NDD_{C} (U)),passez à l’étape 2 ; En continuant à calculer :(forall c in C – R), la signification calculée des attributs externes est :(sig^{outer} (c_{1} ,R) = 2),(sig^{outer} (c_{2} ,R){ = 0}),(sig^{outer} (c_{3} ,R) = 2),(sig^{outer} (c_{4} ,R) = 4). L’attribut avec la signification la plus élevée des attributs externes est (c_{4}), alors (R = R cup left{ {c_{4} } right}), où (NDD_{R} (U) = 2), satisfait (NDD_{R} (U) = NDD_{C} (U)), passez à l’étape 5. Selon l’étape 5 :(forall c in R), calculez la signification de attributs internes de (c):(sig^{inner} (c_{4} ,R) ne 0),(sig^{inner} (c_{5} ,R) ne 0),puis gardez (R) inchangé et affichez l’ensemble de réduction d’attributs (R = left{ {c_{4} ,c_{5} } right}) du système (WDIS).



#algorithme #réduction #dattributs #dynamique #basé #sur #degré #discernabilité #voisinage #relatif
1720424585

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.