librelist archives

« back to archive

Esqueleto de parcial

Esqueleto de parcial

From:
Pablo Duboue
Date:
2014-11-17 @ 17:20
(Más tarde les envío datos de ejemplo de los 1, 2 y 4. Si algo no se
entiende pregunten respondiendo este mail o en la consulta mañana.)

Ejemplo de parcial para los alumnos de GRADO.


1. NB

Dados estos datos:

....

Dada esta tabla:

....

(1) Corregirla
(2) Predecir un punto [sin smoothing]


2. DT

Dados estos datos:

...

Y un árbol de decisión siendo construido:

...

Calcular la information gain y el mejor split en esa situación.


3. MR

Implemente NB usando MR

4. RF

Dados estos árboles:

...

¿Cuál es la predicción para éstos datos?

...

5. Teórico

Explique cros-validación en media página.

Exlique en media página como se construye un RF.

Explique en media página los resultados del teorema CAP [sin demostración].

Re: Esqueleto de parcial

From:
Pablo Duboue
Date:
2014-11-18 @ 19:46
Aca van ejemplos concretos de 1,2 y 4. Tienen consulta ahora a las
18hs y si no mañana después de clase.

1. NB

Dados estos datos:

clases:

M,F

features:

H: 140,160,180
W: 50, 70, 90

140,50,F
160,70,M
160,70,F
160,90,F
180,90,M
180,70,M
140,70,F
160,90,M

Dada esta tabla:

C(M,140) = 0
C(M,160 = 2
C(M,180) = 2
C(M,50) = 0
C(M,70) = 2
C(M,90) = 2
C(F,140) = 2
C(F,160 = 2
C(F,180) = 1
C(F,50) = 1
C(F,70) = 2
C(F,90) = 1

(1) Corregirla
(2) Predecir un punto [sin smoothing]

H:160,W:90


2. DT

Dados estos datos:


@RELATION iris

@ATTRIBUTE sepallength  REAL
@ATTRIBUTE sepalwidth   REAL
@ATTRIBUTE petallength  REAL
@ATTRIBUTE petalwidth   REAL
@ATTRIBUTE class        {Iris-setosa,Iris-versicolor,Iris-virginica}

@DATA

5.0,3.6,1.4,0.2,Iris-setosa
5.4,3.9,1.7,0.4,Iris-setosa
4.9,3.1,1.5,0.1,Iris-setosa
5.7,4.4,1.5,0.4,Iris-setosa
5.4,3.9,1.3,0.4,Iris-setosa
5.1,3.7,1.5,0.4,Iris-setosa
4.8,3.1,1.6,0.2,Iris-setosa
5.4,3.4,1.5,0.4,Iris-setosa
5.2,4.1,1.5,0.1,Iris-setosa
5.0,3.2,1.2,0.2,Iris-setosa
5.5,3.5,1.3,0.2,Iris-setosa
4.4,3.0,1.3,0.2,Iris-setosa
5.3,3.7,1.5,0.2,Iris-setosa
5.7,2.8,4.5,1.3,Iris-versicolor
6.6,2.9,4.6,1.3,Iris-versicolor
5.2,2.7,3.9,1.4,Iris-versicolor
5.0,2.0,3.5,1.0,Iris-versicolor
6.0,2.2,4.0,1.0,Iris-versicolor
5.6,3.0,4.1,1.3,Iris-versicolor
5.8,2.6,4.0,1.2,Iris-versicolor
5.0,2.3,3.3,1.0,Iris-versicolor
5.8,2.7,5.1,1.9,Iris-virginica
6.5,3.0,5.8,2.2,Iris-virginica
5.8,2.8,5.1,2.4,Iris-virginica
6.5,3.0,5.5,1.8,Iris-virginica
7.7,2.6,6.9,2.3,Iris-virginica
5.6,2.8,4.9,2.0,Iris-virginica
7.2,3.0,5.8,1.6,Iris-virginica
7.4,2.8,6.1,1.9,Iris-virginica
7.9,3.8,6.4,2.0,Iris-virginica

Y un árbol de decisión siendo construido:

petalwidth <= 0.4: Iris-setosa (13.0)
petalwidth > 0.4

Calcular la information gain y el mejor split en esa situación.


3. MR

Implemente NB usando MR

4. RF

Dados estos árboles:

a. H > 160
   | si
     | W < 60 si: F, no: M
   | no
     | W > 90 si: M, no: F

b. H > 150
   | si
     | W < 70 si: F, no: M
   | no
     | W < 60 si: M, no: F

c. W < 90
   | si
     | H < 160 si: F, no: M
   | no F



¿Cuál es la predicción para éstos datos?

H: 170, W: 80

(La prediccion final del clasificador RF, es una sola prediccion)





On 11/17/14, Pablo Duboue <pablo.duboue@gmail.com> wrote:
> (Más tarde les envío datos de ejemplo de los 1, 2 y 4. Si algo no se
> entiende pregunten respondiendo este mail o en la consulta mañana.)
>
> Ejemplo de parcial para los alumnos de GRADO.
>
>
> 1. NB
>
> Dados estos datos:
>
> ....
>
> Dada esta tabla:
>
> ....
>
> (1) Corregirla
> (2) Predecir un punto [sin smoothing]
>
>
> 2. DT
>
> Dados estos datos:
>
> ...
>
> Y un árbol de decisión siendo construido:
>
> ...
>
> Calcular la information gain y el mejor split en esa situación.
>
>
> 3. MR
>
> Implemente NB usando MR
>
> 4. RF
>
> Dados estos árboles:
>
> ...
>
> ¿Cuál es la predicción para éstos datos?
>
> ...
>
> 5. Teórico
>
> Explique cros-validación en media página.
>
> Exlique en media página como se construye un RF.
>
> Explique en media página los resultados del teorema CAP [sin demostración].
>

Re: [aprendizajengrande] Re: Esqueleto de parcial

From:
Matias Eduardo Bordone Carranza
Date:
2014-11-18 @ 21:30
Disculpen al ignoracia, ¿En el ejercicio 1, a que se hace referencia con
"corregirla"?

Gracias

El 18 de noviembre de 2014, 16:46, Pablo Duboue<pablo.duboue@gmail.com>
escribió:

> Aca van ejemplos concretos de 1,2 y 4. Tienen consulta ahora a las
> 18hs y si no mañana después de clase.
>
> 1. NB
>
> Dados estos datos:
>
> clases:
>
> M,F
>
> features:
>
> H: 140,160,180
> W: 50, 70, 90
>
> 140,50,F
> 160,70,M
> 160,70,F
> 160,90,F
> 180,90,M
> 180,70,M
> 140,70,F
> 160,90,M
>
> Dada esta tabla:
>
> C(M,140) = 0
> C(M,160 = 2
> C(M,180) = 2
> C(M,50) = 0
> C(M,70) = 2
> C(M,90) = 2
> C(F,140) = 2
> C(F,160 = 2
> C(F,180) = 1
> C(F,50) = 1
> C(F,70) = 2
> C(F,90) = 1
>
> (1) Corregirla
> (2) Predecir un punto [sin smoothing]
>
> H:160,W:90
>
>
> 2. DT
>
> Dados estos datos:
>
>
> @RELATION iris
>
> @ATTRIBUTE sepallength  REAL
> @ATTRIBUTE sepalwidth   REAL
> @ATTRIBUTE petallength  REAL
> @ATTRIBUTE petalwidth   REAL
> @ATTRIBUTE class        {Iris-setosa,Iris-versicolor,Iris-virginica}
>
> @DATA
>
> 5.0,3.6,1.4,0.2,Iris-setosa
> 5.4,3.9,1.7,0.4,Iris-setosa
> 4.9,3.1,1.5,0.1,Iris-setosa
> 5.7,4.4,1.5,0.4,Iris-setosa
> 5.4,3.9,1.3,0.4,Iris-setosa
> 5.1,3.7,1.5,0.4,Iris-setosa
> 4.8,3.1,1.6,0.2,Iris-setosa
> 5.4,3.4,1.5,0.4,Iris-setosa
> 5.2,4.1,1.5,0.1,Iris-setosa
> 5.0,3.2,1.2,0.2,Iris-setosa
> 5.5,3.5,1.3,0.2,Iris-setosa
> 4.4,3.0,1.3,0.2,Iris-setosa
> 5.3,3.7,1.5,0.2,Iris-setosa
> 5.7,2.8,4.5,1.3,Iris-versicolor
> 6.6,2.9,4.6,1.3,Iris-versicolor
> 5.2,2.7,3.9,1.4,Iris-versicolor
> 5.0,2.0,3.5,1.0,Iris-versicolor
> 6.0,2.2,4.0,1.0,Iris-versicolor
> 5.6,3.0,4.1,1.3,Iris-versicolor
> 5.8,2.6,4.0,1.2,Iris-versicolor
> 5.0,2.3,3.3,1.0,Iris-versicolor
> 5.8,2.7,5.1,1.9,Iris-virginica
> 6.5,3.0,5.8,2.2,Iris-virginica
> 5.8,2.8,5.1,2.4,Iris-virginica
> 6.5,3.0,5.5,1.8,Iris-virginica
> 7.7,2.6,6.9,2.3,Iris-virginica
> 5.6,2.8,4.9,2.0,Iris-virginica
> 7.2,3.0,5.8,1.6,Iris-virginica
> 7.4,2.8,6.1,1.9,Iris-virginica
> 7.9,3.8,6.4,2.0,Iris-virginica
>
> Y un árbol de decisión siendo construido:
>
> petalwidth <= 0.4: Iris-setosa (13.0)
> petalwidth > 0.4
>
> Calcular la information gain y el mejor split en esa situación.
>
>
> 3. MR
>
> Implemente NB usando MR
>
> 4. RF
>
> Dados estos árboles:
>
> a. H > 160
>    | si
>      | W < 60 si: F, no: M
>    | no
>      | W > 90 si: M, no: F
>
> b. H > 150
>    | si
>      | W < 70 si: F, no: M
>    | no
>      | W < 60 si: M, no: F
>
> c. W < 90
>    | si
>      | H < 160 si: F, no: M
>    | no F
>
>
>
> ¿Cuál es la predicción para éstos datos?
>
> H: 170, W: 80
>
> (La prediccion final del clasificador RF, es una sola prediccion)
>
>
>
>
>
> On 11/17/14, Pablo Duboue <pablo.duboue@gmail.com> wrote:
> > (Más tarde les envío datos de ejemplo de los 1, 2 y 4. Si algo no se
> > entiende pregunten respondiendo este mail o en la consulta mañana.)
> >
> > Ejemplo de parcial para los alumnos de GRADO.
> >
> >
> > 1. NB
> >
> > Dados estos datos:
> >
> > ....
> >
> > Dada esta tabla:
> >
> > ....
> >
> > (1) Corregirla
> > (2) Predecir un punto [sin smoothing]
> >
> >
> > 2. DT
> >
> > Dados estos datos:
> >
> > ...
> >
> > Y un árbol de decisión siendo construido:
> >
> > ...
> >
> > Calcular la information gain y el mejor split en esa situación.
> >
> >
> > 3. MR
> >
> > Implemente NB usando MR
> >
> > 4. RF
> >
> > Dados estos árboles:
> >
> > ...
> >
> > ¿Cuál es la predicción para éstos datos?
> >
> > ...
> >
> > 5. Teórico
> >
> > Explique cros-validación en media página.
> >
> > Exlique en media página como se construye un RF.
> >
> > Explique en media página los resultados del teorema CAP [sin
> demostración].
> >
>



-- 
    "Si tú tienes una manzana y yo tengo una manzana e intercambiamos
    las manzanas, entonces tanto tú como yo seguiremos teniendo una
    manzana. Pero si tú tienes una idea y yo tengo una idea e
    intercambiamos ideas, entonces ambos tendremos dos ideas."
    George Bernard Shaw

Re: [aprendizajengrande] Re: Esqueleto de parcial

From:
Pablo Duboue
Date:
2014-11-18 @ 21:37
La tabla tiene errores.

On 11/18/14, Matias Eduardo Bordone Carranza <mebordone@gmail.com> wrote:
> Disculpen al ignoracia, ¿En el ejercicio 1, a que se hace referencia con
> "corregirla"?
>
> Gracias
>
> El 18 de noviembre de 2014, 16:46, Pablo Duboue<pablo.duboue@gmail.com>
> escribió:
>
>> Aca van ejemplos concretos de 1,2 y 4. Tienen consulta ahora a las
>> 18hs y si no mañana después de clase.
>>
>> 1. NB
>>
>> Dados estos datos:
>>
>> clases:
>>
>> M,F
>>
>> features:
>>
>> H: 140,160,180
>> W: 50, 70, 90
>>
>> 140,50,F
>> 160,70,M
>> 160,70,F
>> 160,90,F
>> 180,90,M
>> 180,70,M
>> 140,70,F
>> 160,90,M
>>
>> Dada esta tabla:
>>
>> C(M,140) = 0
>> C(M,160 = 2
>> C(M,180) = 2
>> C(M,50) = 0
>> C(M,70) = 2
>> C(M,90) = 2
>> C(F,140) = 2
>> C(F,160 = 2
>> C(F,180) = 1
>> C(F,50) = 1
>> C(F,70) = 2
>> C(F,90) = 1
>>
>> (1) Corregirla
>> (2) Predecir un punto [sin smoothing]
>>
>> H:160,W:90
>>
>>
>> 2. DT
>>
>> Dados estos datos:
>>
>>
>> @RELATION iris
>>
>> @ATTRIBUTE sepallength  REAL
>> @ATTRIBUTE sepalwidth   REAL
>> @ATTRIBUTE petallength  REAL
>> @ATTRIBUTE petalwidth   REAL
>> @ATTRIBUTE class        {Iris-setosa,Iris-versicolor,Iris-virginica}
>>
>> @DATA
>>
>> 5.0,3.6,1.4,0.2,Iris-setosa
>> 5.4,3.9,1.7,0.4,Iris-setosa
>> 4.9,3.1,1.5,0.1,Iris-setosa
>> 5.7,4.4,1.5,0.4,Iris-setosa
>> 5.4,3.9,1.3,0.4,Iris-setosa
>> 5.1,3.7,1.5,0.4,Iris-setosa
>> 4.8,3.1,1.6,0.2,Iris-setosa
>> 5.4,3.4,1.5,0.4,Iris-setosa
>> 5.2,4.1,1.5,0.1,Iris-setosa
>> 5.0,3.2,1.2,0.2,Iris-setosa
>> 5.5,3.5,1.3,0.2,Iris-setosa
>> 4.4,3.0,1.3,0.2,Iris-setosa
>> 5.3,3.7,1.5,0.2,Iris-setosa
>> 5.7,2.8,4.5,1.3,Iris-versicolor
>> 6.6,2.9,4.6,1.3,Iris-versicolor
>> 5.2,2.7,3.9,1.4,Iris-versicolor
>> 5.0,2.0,3.5,1.0,Iris-versicolor
>> 6.0,2.2,4.0,1.0,Iris-versicolor
>> 5.6,3.0,4.1,1.3,Iris-versicolor
>> 5.8,2.6,4.0,1.2,Iris-versicolor
>> 5.0,2.3,3.3,1.0,Iris-versicolor
>> 5.8,2.7,5.1,1.9,Iris-virginica
>> 6.5,3.0,5.8,2.2,Iris-virginica
>> 5.8,2.8,5.1,2.4,Iris-virginica
>> 6.5,3.0,5.5,1.8,Iris-virginica
>> 7.7,2.6,6.9,2.3,Iris-virginica
>> 5.6,2.8,4.9,2.0,Iris-virginica
>> 7.2,3.0,5.8,1.6,Iris-virginica
>> 7.4,2.8,6.1,1.9,Iris-virginica
>> 7.9,3.8,6.4,2.0,Iris-virginica
>>
>> Y un árbol de decisión siendo construido:
>>
>> petalwidth <= 0.4: Iris-setosa (13.0)
>> petalwidth > 0.4
>>
>> Calcular la information gain y el mejor split en esa situación.
>>
>>
>> 3. MR
>>
>> Implemente NB usando MR
>>
>> 4. RF
>>
>> Dados estos árboles:
>>
>> a. H > 160
>>    | si
>>      | W < 60 si: F, no: M
>>    | no
>>      | W > 90 si: M, no: F
>>
>> b. H > 150
>>    | si
>>      | W < 70 si: F, no: M
>>    | no
>>      | W < 60 si: M, no: F
>>
>> c. W < 90
>>    | si
>>      | H < 160 si: F, no: M
>>    | no F
>>
>>
>>
>> ¿Cuál es la predicción para éstos datos?
>>
>> H: 170, W: 80
>>
>> (La prediccion final del clasificador RF, es una sola prediccion)
>>
>>
>>
>>
>>
>> On 11/17/14, Pablo Duboue <pablo.duboue@gmail.com> wrote:
>> > (Más tarde les envío datos de ejemplo de los 1, 2 y 4. Si algo no se
>> > entiende pregunten respondiendo este mail o en la consulta mañana.)
>> >
>> > Ejemplo de parcial para los alumnos de GRADO.
>> >
>> >
>> > 1. NB
>> >
>> > Dados estos datos:
>> >
>> > ....
>> >
>> > Dada esta tabla:
>> >
>> > ....
>> >
>> > (1) Corregirla
>> > (2) Predecir un punto [sin smoothing]
>> >
>> >
>> > 2. DT
>> >
>> > Dados estos datos:
>> >
>> > ...
>> >
>> > Y un árbol de decisión siendo construido:
>> >
>> > ...
>> >
>> > Calcular la information gain y el mejor split en esa situación.
>> >
>> >
>> > 3. MR
>> >
>> > Implemente NB usando MR
>> >
>> > 4. RF
>> >
>> > Dados estos árboles:
>> >
>> > ...
>> >
>> > ¿Cuál es la predicción para éstos datos?
>> >
>> > ...
>> >
>> > 5. Teórico
>> >
>> > Explique cros-validación en media página.
>> >
>> > Exlique en media página como se construye un RF.
>> >
>> > Explique en media página los resultados del teorema CAP [sin
>> demostración].
>> >
>>
>
>
>
> --
>     "Si tú tienes una manzana y yo tengo una manzana e intercambiamos
>     las manzanas, entonces tanto tú como yo seguiremos teniendo una
>     manzana. Pero si tú tienes una idea y yo tengo una idea e
>     intercambiamos ideas, entonces ambos tendremos dos ideas."
>     George Bernard Shaw
>