In [9]:
import numpy as np
import pandas as pd

In [10]:
amplifiers = np.genfromtxt('amplifiers_0.csv',delimiter=',').astype(int)
print(amplifiers)
normals = 1-amplifiers
print(normals)


[0 1 1 1 0 1 0 1 0 0 0 1]
[1 0 0 0 1 0 1 0 1 1 1 0]

In [ ]:


In [11]:
weights_biased = np.atleast_2d(np.genfromtxt('weights-biased_0.csv', delimiter=','))
weights_unbiased = np.atleast_2d(np.genfromtxt('weights-unbiased_0.csv', delimiter=','))
condorcet_biased = np.atleast_2d(np.genfromtxt('condorcet-biased_0.csv', delimiter=','))
unanimity_biased = np.atleast_2d(np.genfromtxt('unanimity_0.csv', delimiter=','))

In [12]:
print(weights_biased[:,amplifiers.astype(bool)].mean(axis=0))
print(weights_biased[:,normals.astype(bool)].mean(axis=0))


[5. 6. 3. 4. 4. 3.]
[4. 3. 5. 3. 3. 4.]

In [13]:
print(weights_unbiased[:,amplifiers.astype(bool)].mean(axis=0))
print(weights_unbiased[:,normals.astype(bool)].mean(axis=0))


[5. 6. 3. 4. 4. 3.]
[4. 3. 5. 3. 3. 4.]

In [14]:
print(condorcet_biased[:,amplifiers.astype(bool)].mean(axis=0))
print(condorcet_biased[:,normals.astype(bool)].mean(axis=0))


[5. 6. 3. 4. 4. 3.]
[4. 3. 5. 3. 3. 4.]

In [15]:
print(unanimity_biased[:,amplifiers.astype(bool)].mean(axis=0))
print(unanimity_biased[:,normals.astype(bool)].mean(axis=0))


[3. 4. 3. 4. 2. 5.]
[6. 5. 3. 3. 3. 4.]

In [16]:
n_experiments = 200

all_weights_ub_amp_means = []
all_weights_ub_namp_means = []

all_weights_amp_means = []
all_weights_namp_means = []

all_condorcet_amp_means = []
all_condorcet_namp_means = []

all_unanimity_amp_means = []
all_unanimity_namp_means = []

for i in range(n_experiments):
    amplifiers = np.genfromtxt('amplifiers_%d.csv' %i ,delimiter=',').astype(int)
    normals = 1-amplifiers
    if(sum(amplifiers) == 0 or sum(normals) == 0):
        continue
    
    weights_biased = np.atleast_2d(np.genfromtxt('weights-biased_%d.csv' % i, delimiter=','))
    #print("----- WEIGHTS ")
    #print("----- amplifiers")
    #print(weights_biased[:,amplifiers.astype(bool)])
    #print(weights_biased[:,amplifiers.astype(bool)].mean())
    all_weights_amp_means += [weights_biased[:,amplifiers.astype(bool)].mean()]
    
    #print("----- non amplifiers")
    #print(weights_biased[:,normals.astype(bool)])
    #print(weights_biased[:,normals.astype(bool)].mean())
    all_weights_namp_means += [weights_biased[:,normals.astype(bool)].mean()]
    
    weights_unbiased = np.atleast_2d(np.genfromtxt('weights-unbiased_%d.csv' % i, delimiter=','))
    all_weights_ub_amp_means += [weights_unbiased[:,amplifiers.astype(bool)].mean()]
    all_weights_ub_namp_means += [weights_unbiased[:,normals.astype(bool)].mean()]
    
    condorcet_biased = np.atleast_2d(np.genfromtxt('condorcet-biased_%d.csv' % i, delimiter=','))
    #print("----- CONDORCET ")
    #print("----- amplifiers")
    #print(condorcet_biased[:,amplifiers.astype(bool)])
    #print(condorcet_biased[:,amplifiers.astype(bool)].mean())
    all_condorcet_amp_means += [condorcet_biased[:,amplifiers.astype(bool)].mean()]
    
    #print("----- non amplifiers")
    #print(condorcet_biased[:,normals.astype(bool)])
    #print(condorcet_biased[:,normals.astype(bool)].mean())
    all_condorcet_namp_means += [condorcet_biased[:,normals.astype(bool)].mean()]
    
    unanimity_biased = np.atleast_2d(np.genfromtxt('unanimity_%d.csv' % i, delimiter=','))
    all_unanimity_amp_means += [unanimity_biased[:,amplifiers.astype(bool)].mean()]
    all_unanimity_namp_means += [unanimity_biased[:,normals.astype(bool)].mean()]

In [17]:
all_weights_amp_means


Out[17]:
[4.166666666666667,
 3.5,
 3.5,
 4.285714285714286,
 3.8181818181818183,
 3.6666666666666665,
 3.8333333333333335,
 3.2,
 3.7142857142857144,
 4.333333333333333,
 4.25,
 3.857142857142857,
 3.8,
 4.0,
 3.3333333333333335,
 3.5,
 3.8333333333333335,
 4.4,
 4.0,
 4.125,
 3.8333333333333335,
 3.857142857142857,
 3.7142857142857144,
 3.375,
 4.666666666666667,
 3.888888888888889,
 4.25,
 4.4,
 4.2,
 4.0,
 3.7777777777777777,
 3.6666666666666665,
 3.857142857142857,
 4.75,
 3.8333333333333335,
 3.6,
 4.333333333333333,
 6.0,
 3.5714285714285716,
 3.7,
 3.75,
 4.0,
 4.5,
 4.5,
 4.0,
 3.888888888888889,
 4.5,
 3.5,
 4.166666666666667,
 4.0,
 4.75,
 4.0,
 4.5,
 3.142857142857143,
 4.0,
 5.0,
 3.8,
 3.857142857142857,
 4.0,
 4.0,
 3.8,
 3.8,
 3.7142857142857144,
 4.2,
 4.0,
 3.75,
 4.0,
 3.888888888888889,
 4.0,
 4.4,
 3.5714285714285716,
 4.0,
 3.625,
 3.6,
 3.888888888888889,
 4.125,
 4.0,
 4.0,
 3.8333333333333335,
 4.0,
 4.0,
 4.333333333333333,
 3.6666666666666665,
 4.0,
 4.0,
 3.7142857142857144,
 4.0,
 4.0,
 4.25,
 3.625,
 4.0,
 4.0,
 5.0,
 3.5714285714285716,
 4.0,
 3.6666666666666665,
 3.6666666666666665,
 3.75,
 3.625,
 3.8333333333333335,
 3.875,
 4.666666666666667,
 4.0,
 4.5,
 4.333333333333333,
 3.5714285714285716,
 4.5,
 3.7142857142857144,
 4.0,
 4.0,
 4.0,
 3.8,
 4.333333333333333,
 3.875,
 4.2,
 4.0,
 4.142857142857143,
 3.5714285714285716,
 4.25,
 4.0,
 4.25,
 3.6666666666666665,
 3.5,
 3.8333333333333335,
 4.285714285714286,
 3.8,
 3.8181818181818183,
 4.428571428571429,
 3.857142857142857,
 4.285714285714286,
 3.4444444444444446,
 4.0,
 4.166666666666667,
 4.5,
 3.5714285714285716,
 3.888888888888889,
 4.142857142857143,
 3.8333333333333335,
 4.166666666666667,
 3.857142857142857,
 3.5,
 4.5,
 4.5,
 4.25,
 4.166666666666667,
 3.5714285714285716,
 4.125,
 3.8333333333333335,
 3.7142857142857144,
 3.8,
 3.5714285714285716,
 4.4,
 3.5,
 4.0,
 3.625,
 4.6,
 4.0,
 3.8333333333333335,
 3.8333333333333335,
 4.0,
 4.0,
 4.2,
 3.4444444444444446,
 4.333333333333333,
 4.25,
 3.4,
 3.6666666666666665,
 3.875,
 4.166666666666667,
 3.75,
 3.8,
 4.333333333333333,
 3.5,
 4.0,
 3.8,
 4.25,
 3.5555555555555554,
 4.2,
 4.2,
 6.0,
 3.875,
 4.25,
 3.75,
 4.25,
 3.5,
 3.8333333333333335,
 3.5,
 4.0,
 4.0,
 3.6666666666666665,
 3.5714285714285716,
 4.166666666666667,
 4.0,
 3.5,
 3.6666666666666665,
 3.6666666666666665,
 4.0,
 4.0,
 4.333333333333333,
 3.7142857142857144]

In [18]:
all_weights_namp_means


Out[18]:
[3.6666666666666665,
 2.875,
 2.25,
 4.0,
 3.0,
 2.5,
 2.6666666666666665,
 3.0,
 2.0,
 2.5,
 3.125,
 4.0,
 4.0,
 2.0,
 2.6666666666666665,
 3.25,
 2.3333333333333335,
 3.5,
 3.6666666666666665,
 4.0,
 3.3333333333333335,
 2.2,
 3.6,
 3.75,
 2.8333333333333335,
 2.6666666666666665,
 3.25,
 3.142857142857143,
 3.4285714285714284,
 3.0,
 4.0,
 3.1666666666666665,
 4.2,
 2.375,
 2.6666666666666665,
 2.857142857142857,
 3.8333333333333335,
 3.1818181818181817,
 3.4,
 4.5,
 2.0,
 3.5714285714285716,
 3.0,
 3.8333333333333335,
 3.3333333333333335,
 3.6666666666666665,
 3.0,
 3.2,
 2.8333333333333335,
 3.4,
 3.125,
 3.375,
 3.8,
 3.8,
 2.8,
 3.3333333333333335,
 2.0,
 3.6,
 2.3333333333333335,
 3.4285714285714284,
 2.857142857142857,
 3.2857142857142856,
 3.0,
 2.5714285714285716,
 3.5,
 3.375,
 2.8,
 2.6666666666666665,
 2.25,
 3.4285714285714284,
 3.0,
 2.5,
 4.0,
 3.142857142857143,
 4.333333333333333,
 3.25,
 3.6,
 4.6,
 2.8333333333333335,
 2.25,
 3.0,
 3.8333333333333335,
 3.111111111111111,
 3.375,
 3.142857142857143,
 3.8,
 3.0,
 2.375,
 3.0,
 2.25,
 2.625,
 2.4285714285714284,
 3.111111111111111,
 2.4,
 2.8,
 2.5,
 3.1666666666666665,
 2.375,
 1.5,
 3.5,
 3.0,
 2.888888888888889,
 4.0,
 3.1666666666666665,
 3.1666666666666665,
 2.8,
 3.7,
 3.4,
 2.4444444444444446,
 3.0,
 2.875,
 4.0,
 2.6666666666666665,
 3.5,
 3.0,
 3.8333333333333335,
 4.2,
 4.4,
 2.25,
 3.375,
 3.5,
 3.0,
 3.375,
 3.6666666666666665,
 3.8,
 2.5714285714285716,
 4.0,
 3.2,
 3.4,
 3.6,
 2.3333333333333335,
 3.4,
 2.8333333333333335,
 2.75,
 3.4,
 4.0,
 3.2,
 3.1666666666666665,
 3.8333333333333335,
 3.6,
 3.25,
 3.5,
 3.5,
 3.5,
 3.5,
 4.4,
 2.5,
 3.3333333333333335,
 2.6,
 3.142857142857143,
 4.0,
 3.5714285714285716,
 3.75,
 3.0,
 3.5,
 3.0,
 4.333333333333333,
 3.8333333333333335,
 3.8333333333333335,
 3.0,
 3.2222222222222223,
 2.4285714285714284,
 3.0,
 2.8333333333333335,
 2.75,
 2.5714285714285716,
 4.0,
 3.75,
 3.6666666666666665,
 3.125,
 3.5714285714285716,
 3.5,
 3.5,
 3.5,
 2.5714285714285716,
 3.0,
 3.6666666666666665,
 3.7142857142857144,
 3.4285714285714284,
 2.5454545454545454,
 4.0,
 2.5,
 2.0,
 3.25,
 4.0,
 2.1666666666666665,
 4.0,
 3.4,
 3.0,
 2.888888888888889,
 3.6,
 2.6666666666666665,
 2.2222222222222223,
 4.0,
 4.333333333333333,
 3.3333333333333335,
 3.0,
 4.25,
 2.8333333333333335,
 3.2]

In [19]:
all_condorcet_amp_means


Out[19]:
[4.166666666666667,
 3.5,
 3.5,
 4.285714285714286,
 3.6363636363636362,
 3.0,
 3.1666666666666665,
 3.2,
 2.857142857142857,
 4.0,
 3.75,
 3.2857142857142856,
 3.8,
 4.0,
 3.0,
 3.25,
 3.1666666666666665,
 4.4,
 4.0,
 4.125,
 3.8333333333333335,
 3.2857142857142856,
 3.4285714285714284,
 3.125,
 4.666666666666667,
 3.888888888888889,
 4.25,
 4.4,
 3.8,
 3.4285714285714284,
 3.6666666666666665,
 3.3333333333333335,
 3.857142857142857,
 3.75,
 3.8333333333333335,
 3.2,
 4.0,
 5.0,
 3.5714285714285716,
 3.7,
 2.75,
 4.0,
 4.5,
 3.8333333333333335,
 4.0,
 3.0,
 3.5,
 3.5,
 4.166666666666667,
 3.7142857142857144,
 4.75,
 3.0,
 4.5,
 3.142857142857143,
 4.0,
 5.333333333333333,
 3.4,
 3.2857142857142856,
 3.0,
 3.8,
 3.8,
 3.4,
 3.142857142857143,
 4.0,
 4.0,
 3.25,
 3.142857142857143,
 3.888888888888889,
 3.75,
 4.4,
 3.2857142857142856,
 3.75,
 3.625,
 2.8,
 3.7777777777777777,
 3.375,
 4.0,
 4.0,
 3.5,
 2.75,
 3.4,
 4.333333333333333,
 3.0,
 3.5,
 4.0,
 3.4285714285714284,
 3.5,
 3.0,
 3.75,
 3.625,
 4.0,
 4.0,
 3.6666666666666665,
 2.7142857142857144,
 3.4285714285714284,
 3.3333333333333335,
 3.0,
 2.75,
 2.875,
 3.1666666666666665,
 3.875,
 4.666666666666667,
 4.0,
 4.5,
 4.0,
 3.0,
 4.5,
 3.4285714285714284,
 3.3333333333333335,
 4.0,
 3.0,
 3.4,
 3.6666666666666665,
 3.875,
 3.8,
 4.0,
 4.142857142857143,
 3.2857142857142856,
 3.5,
 3.0,
 3.75,
 3.0,
 3.0,
 3.5,
 3.857142857142857,
 3.0,
 3.8181818181818183,
 4.428571428571429,
 3.857142857142857,
 3.7142857142857144,
 3.4444444444444446,
 4.0,
 4.166666666666667,
 3.0,
 3.5714285714285716,
 3.4444444444444446,
 4.285714285714286,
 3.8333333333333335,
 4.166666666666667,
 3.2857142857142856,
 3.25,
 4.5,
 4.0,
 3.75,
 3.8333333333333335,
 3.5714285714285716,
 4.125,
 3.5,
 2.857142857142857,
 3.2,
 3.5714285714285716,
 4.6,
 3.5,
 4.0,
 3.375,
 3.8,
 4.0,
 3.8333333333333335,
 3.5,
 3.0,
 3.3333333333333335,
 3.4,
 3.3333333333333335,
 4.666666666666667,
 2.75,
 2.6,
 3.6666666666666665,
 3.875,
 3.1666666666666665,
 3.75,
 3.8,
 4.333333333333333,
 3.5,
 4.0,
 3.4,
 3.75,
 3.5555555555555554,
 3.0,
 3.6,
 2.0,
 3.125,
 3.75,
 3.25,
 4.25,
 3.1666666666666665,
 3.1666666666666665,
 3.5,
 3.7142857142857144,
 4.0,
 3.3333333333333335,
 3.5714285714285716,
 4.166666666666667,
 2.6666666666666665,
 3.0,
 3.3333333333333335,
 3.4444444444444446,
 2.8,
 4.0,
 3.3333333333333335,
 3.142857142857143]

In [20]:
all_condorcet_namp_means


Out[20]:
[3.6666666666666665,
 4.125,
 3.75,
 4.0,
 5.0,
 3.8333333333333335,
 3.0,
 3.5714285714285716,
 4.4,
 3.5,
 3.375,
 4.0,
 4.0,
 3.3333333333333335,
 3.6666666666666665,
 3.75,
 3.6666666666666665,
 3.5,
 3.6666666666666665,
 4.0,
 4.0,
 3.0,
 4.0,
 2.75,
 2.8333333333333335,
 2.6666666666666665,
 3.25,
 3.142857142857143,
 3.4285714285714284,
 4.2,
 3.6666666666666665,
 4.166666666666667,
 4.2,
 3.625,
 3.3333333333333335,
 3.7142857142857144,
 3.8333333333333335,
 3.6363636363636362,
 3.4,
 4.5,
 3.5,
 3.857142857142857,
 3.0,
 4.166666666666667,
 3.6666666666666665,
 3.0,
 3.0,
 3.4,
 3.1666666666666665,
 3.0,
 3.125,
 3.875,
 3.8,
 3.0,
 3.2,
 3.6666666666666665,
 4.0,
 4.0,
 4.333333333333333,
 3.857142857142857,
 2.857142857142857,
 3.857142857142857,
 4.2,
 3.0,
 3.5,
 3.875,
 4.0,
 4.666666666666667,
 2.75,
 3.4285714285714284,
 3.4,
 3.5,
 4.0,
 3.7142857142857144,
 4.666666666666667,
 3.75,
 4.0,
 4.6,
 3.8333333333333335,
 3.75,
 4.285714285714286,
 3.8333333333333335,
 4.222222222222222,
 3.625,
 3.7142857142857144,
 4.6,
 4.0,
 4.125,
 3.0,
 3.75,
 2.625,
 3.5714285714285716,
 3.7777777777777777,
 4.8,
 3.2,
 3.8333333333333335,
 3.8333333333333335,
 4.375,
 4.0,
 4.833333333333333,
 3.0,
 2.888888888888889,
 4.0,
 3.1666666666666665,
 3.5,
 3.2,
 3.7,
 3.8,
 3.3333333333333335,
 3.0,
 3.375,
 4.571428571428571,
 3.3333333333333335,
 3.5,
 3.2857142857142856,
 3.8333333333333335,
 4.2,
 4.0,
 3.75,
 3.625,
 3.5,
 3.6666666666666665,
 3.625,
 3.3333333333333335,
 4.4,
 4.0,
 4.0,
 3.2,
 3.4,
 4.4,
 2.3333333333333335,
 3.4,
 2.8333333333333335,
 3.75,
 3.4,
 4.0,
 3.0,
 3.1666666666666665,
 3.8333333333333335,
 3.2,
 3.75,
 3.5,
 4.0,
 3.75,
 4.166666666666667,
 4.4,
 4.0,
 3.6666666666666665,
 4.2,
 4.142857142857143,
 4.0,
 3.4285714285714284,
 3.75,
 3.5714285714285716,
 4.0,
 3.0,
 4.333333333333333,
 3.8333333333333335,
 3.8333333333333335,
 4.0,
 4.111111111111111,
 3.0,
 4.0,
 3.5,
 4.0,
 3.7142857142857144,
 4.0,
 3.75,
 4.666666666666667,
 3.125,
 3.5714285714285716,
 4.166666666666667,
 5.5,
 3.5,
 3.4285714285714284,
 3.25,
 3.6666666666666665,
 3.4285714285714284,
 3.5714285714285716,
 3.8181818181818183,
 3.5,
 2.5,
 3.5,
 3.25,
 3.6666666666666665,
 3.5,
 5.0,
 3.4,
 3.0,
 3.6666666666666665,
 3.6,
 2.6666666666666665,
 4.0,
 3.0,
 4.333333333333333,
 4.0,
 3.857142857142857,
 4.25,
 3.8333333333333335,
 4.0]

In [21]:
# Credit: Josh Hemann

import numpy as np
import matplotlib.pyplot as plt
from matplotlib.ticker import MaxNLocator
from collections import namedtuple


n_groups = 5

means_men = (20, 35, 30, 35, 27)
std_men = (2, 3, 4, 1, 2)

means_women = (25, 32, 34, 20, 25)
std_women = (3, 5, 2, 3, 3)

fig, ax = plt.subplots()

index = np.arange(n_groups)
bar_width = 0.35

opacity = 0.4
error_config = {'ecolor': '0.3'}

rects1 = ax.bar(index, means_men, bar_width,
                alpha=opacity, color='b',
                yerr=std_men, error_kw=error_config,
                label='Men')

rects2 = ax.bar(index + bar_width, means_women, bar_width,
                alpha=opacity, color='r',
                yerr=std_women, error_kw=error_config,
                label='Women')

ax.set_xlabel('Group')
ax.set_ylabel('Scores')
ax.set_title('Scores by group and gender')
ax.set_xticks(index + bar_width / 2)
ax.set_xticklabels(('A', 'B', 'C', 'D', 'E'))
ax.legend()

fig.tight_layout()
plt.show()


<Figure size 640x480 with 1 Axes>

In [22]:
# Credit: Josh Hemann

import numpy as np
import matplotlib.pyplot as plt
from matplotlib.ticker import MaxNLocator
from collections import namedtuple


n_groups = 4 # weighted and condorcet 
# within each group amplifiers and non-amplifiers correspond to men and women

all_weights_ub_amp_means = np.array(all_weights_ub_amp_means)
all_weights_ub_namp_means = np.array(all_weights_ub_namp_means)

all_weights_amp_means = np.array(all_weights_amp_means)
all_weights_namp_means = np.array(all_weights_namp_means)

all_condorcet_amp_means = np.array(all_condorcet_amp_means)
all_condorcet_namp_means = np.array(all_condorcet_namp_means)

all_unanimity_amp_means = np.array(all_unanimity_amp_means)
all_unanimity_namp_means = np.array(all_unanimity_namp_means)
    
means_amp = (all_weights_ub_amp_means.mean(), all_weights_amp_means.mean(), all_condorcet_amp_means.mean(), all_unanimity_amp_means.mean())
std_amp = (all_weights_ub_amp_means.std(), all_weights_amp_means.std(), all_condorcet_amp_means.std(), all_unanimity_amp_means.std())

means_namp = (all_weights_ub_namp_means.mean(), all_weights_namp_means.mean(), all_condorcet_namp_means.mean(), all_unanimity_namp_means.mean())
std_namp = (all_weights_ub_namp_means.std(), all_weights_namp_means.std(), all_condorcet_namp_means.std(), all_unanimity_namp_means.std())

fig, ax = plt.subplots()

index = np.arange(n_groups)
bar_width = 0.35

opacity = 0.4
error_config = {'ecolor': '0.3'}

rects1 = ax.bar(index, means_amp, bar_width,
                alpha=opacity, color='b',
                yerr=std_amp, error_kw=error_config,
                label='Amplifiers')

rects2 = ax.bar(index + bar_width, means_namp, bar_width,
                alpha=opacity, color='r',
                yerr=std_namp, error_kw=error_config,
                label='Non-amplifiers')

ax.set_xlabel('Group')
ax.set_ylabel('Satisfaction degrees')
ax.set_title('Satisfaction degrees by voting function and group')
ax.set_xticks(index + bar_width / 2)
ax.set_xticklabels(('WCSP Unbiased', 'WCSP Biased', 'Condorcet', 'Pareto / Unanimity'))
ax.legend()

fig.tight_layout()
plt.savefig("lunch-selection-comparison.pdf")
plt.show()



In [23]:
all_weights_amp_means


Out[23]:
array([4.16666667, 3.5       , 3.5       , 4.28571429, 3.81818182,
       3.66666667, 3.83333333, 3.2       , 3.71428571, 4.33333333,
       4.25      , 3.85714286, 3.8       , 4.        , 3.33333333,
       3.5       , 3.83333333, 4.4       , 4.        , 4.125     ,
       3.83333333, 3.85714286, 3.71428571, 3.375     , 4.66666667,
       3.88888889, 4.25      , 4.4       , 4.2       , 4.        ,
       3.77777778, 3.66666667, 3.85714286, 4.75      , 3.83333333,
       3.6       , 4.33333333, 6.        , 3.57142857, 3.7       ,
       3.75      , 4.        , 4.5       , 4.5       , 4.        ,
       3.88888889, 4.5       , 3.5       , 4.16666667, 4.        ,
       4.75      , 4.        , 4.5       , 3.14285714, 4.        ,
       5.        , 3.8       , 3.85714286, 4.        , 4.        ,
       3.8       , 3.8       , 3.71428571, 4.2       , 4.        ,
       3.75      , 4.        , 3.88888889, 4.        , 4.4       ,
       3.57142857, 4.        , 3.625     , 3.6       , 3.88888889,
       4.125     , 4.        , 4.        , 3.83333333, 4.        ,
       4.        , 4.33333333, 3.66666667, 4.        , 4.        ,
       3.71428571, 4.        , 4.        , 4.25      , 3.625     ,
       4.        , 4.        , 5.        , 3.57142857, 4.        ,
       3.66666667, 3.66666667, 3.75      , 3.625     , 3.83333333,
       3.875     , 4.66666667, 4.        , 4.5       , 4.33333333,
       3.57142857, 4.5       , 3.71428571, 4.        , 4.        ,
       4.        , 3.8       , 4.33333333, 3.875     , 4.2       ,
       4.        , 4.14285714, 3.57142857, 4.25      , 4.        ,
       4.25      , 3.66666667, 3.5       , 3.83333333, 4.28571429,
       3.8       , 3.81818182, 4.42857143, 3.85714286, 4.28571429,
       3.44444444, 4.        , 4.16666667, 4.5       , 3.57142857,
       3.88888889, 4.14285714, 3.83333333, 4.16666667, 3.85714286,
       3.5       , 4.5       , 4.5       , 4.25      , 4.16666667,
       3.57142857, 4.125     , 3.83333333, 3.71428571, 3.8       ,
       3.57142857, 4.4       , 3.5       , 4.        , 3.625     ,
       4.6       , 4.        , 3.83333333, 3.83333333, 4.        ,
       4.        , 4.2       , 3.44444444, 4.33333333, 4.25      ,
       3.4       , 3.66666667, 3.875     , 4.16666667, 3.75      ,
       3.8       , 4.33333333, 3.5       , 4.        , 3.8       ,
       4.25      , 3.55555556, 4.2       , 4.2       , 6.        ,
       3.875     , 4.25      , 3.75      , 4.25      , 3.5       ,
       3.83333333, 3.5       , 4.        , 4.        , 3.66666667,
       3.57142857, 4.16666667, 4.        , 3.5       , 3.66666667,
       3.66666667, 4.        , 4.        , 4.33333333, 3.71428571])

In [24]:
means_amp


Out[24]:
(3.710951298701299, 3.9753484848484852, 3.617268759018759, 2.5502554112554114)

In [25]:
means_namp


Out[25]:
(3.7378181818181817, 3.203449855699856, 3.691213203463204, 2.5090941558441555)

In [26]:
means_amp


Out[26]:
(3.710951298701299, 3.9753484848484852, 3.617268759018759, 2.5502554112554114)

In [ ]: