04.01.2011
   Wybr cech dla poszczeglnych klas: http://class-specific.com/csf/index.html
   Reliability (solidnosc) klasyfikatora: "Class-Speci?c Feature Selection for One-Against-All Multiclass SVMs",   Gal de Lannoy and Damien Franois and Michel Verleysen
      -  przemyle wybr neuronw (klasyfikatorw czstkowych) ze wzgldu na miar reliability
         zobaczyc :  Yi Liu and Y.F. Zheng. One-against-all multi-class svm classi?cation using reliability measures. In Neural Networks, 2005. IJCNN ?05. Proceedings. 2005 IEEE International Joint Conference on, volume 2, pages 849 ? 854 vol. 2, 31 2005.




-----
1.  "Relaksacja" - kierunek sterwany przez zmiane polozenia jednego prototypu
2.  Aktywna selekcja cech - usuwanie niepotrzebnych atrybutow w trakcie uczenia QPC
3.  Ekstrakcja regol z kierunkow QPC lub z sieci opartej o QPC
4.  LVQ-QPC - szukanie jesnego kierunku
    * zintegrowac inicjalizacje (multistart) z llvqtrain  
    * dodac szukanie optymalnego K do llvqtrain

1. LVQ1 - jak zapobiec rozbieganiu sie prototypow 
    A. przenosic "martwe" (te, ktore nie biora juz udzialu w uczeniu) 
    prototypy oraz te ktore nieklasyfikuja poprawnie zadnego przypadku , w miejsce wektora z tej samej klasy
    ktory jest zle klasyfikowany?
    B. znalezc dobry sposob doboru ilosci prototypow i stalej uczenia dla danych
    C. moze LVQ3 w tym wypadku dzialalo by lepiej (uczenie tylko dla wektorow wpadajacych w "okno")
 
2. LLVQ (linearLVQ) - najpierw uczenie kierunku (QPC) z pewna liczba prototypow, modyfikacja wagi i 
    centrow - potem rozluznienie warunkow i zwykle LVQ
    A. do czego to prowadzi?

3. Integracja uczenia LVQ z QPC 
    A. QPC uczone na prototypach
    B. QPC uczone na danych z centrami ustalonymi przez prototypy




***********************************************************************************************
22.05.2008
 * testy CV na prostych danych UCI sieci opartej o index
 * jak przyspieszyc algorytm? zlozonosc O(n^2) dla kozdej iteracji i dla kzdego neuronu to za duzo

17.03.2008
 * (zrobione) multistart - duzo inicjalizacji ale tylko kilka krokow i wybieramy najlepsze, rozne otrzymane kierunki moga byc baza dla neuronow 
 * odleglosci kosinusowe, normujemy dlugosc X do 1 i otrzymujemy punkty na sferze
 * podobienstwo do Kohonena, jak zdefiniowac funkcje, w = w - n * Q() * dQ()
 
 * sprawdzic inne kary za ortogonalnosc, np. \sqrt(|w1 * w2|^2)
 * ortogonalizacja calej przestrzeni
 * (siec zrobiona) teorzeni sieci, jak zrobic to najszybciej?

